home *** CD-ROM | disk | FTP | other *** search
/ Danny Amor's Online Library / Danny Amor's Online Library - Volume 1.iso / html / faqs / faq / neural-net-faq < prev    next >
Text File  |  1995-07-25  |  130KB  |  2,876 lines

  1. Subject: FAQ in comp.ai.neural-nets -- monthly posting
  2. Newsgroups: comp.ai.neural-nets,comp.answers,news.answers
  3. From: prechelt@ira.uka.de (Lutz Prechelt)
  4. Date: 28 Oct 1994 03:17:40 GMT
  5.  
  6. Archive-name: neural-net-faq
  7. Last-modified: 1994/10/25
  8. URL: http://wwwipd.ira.uka.de/~prechelt/FAQ/neural-net-faq.html
  9. Maintainer: prechelt@ira.uka.de (Lutz Prechelt)
  10.  
  11.  
  12.   ------------------------------------------------------------------------
  13.         Additions, corrections, or improvements are always welcome.
  14.         Anybody who is willing to contribute any information,
  15.         please email me; if it is relevant, I will incorporate it.
  16.  
  17.         The monthly posting departs at the 28th of every month.
  18.   ------------------------------------------------------------------------
  19.  
  20.  
  21. This is a monthly posting to the Usenet newsgroup comp.ai.neural-nets
  22. (and comp.answers, where it should be findable at ANY time). Its
  23. purpose is to provide basic information for individuals who are new to the
  24. field of neural networks or are just beginning to read this group. It shall
  25. help to avoid lengthy discussion of questions that usually arise for
  26. beginners of one or the other kind. 
  27.  
  28.    SO, PLEASE, SEARCH THIS POSTING FIRST IF YOU HAVE A QUESTION
  29.                            and
  30.    DON'T POST ANSWERS TO FAQs: POINT THE ASKER TO THIS POSTING
  31.  
  32. This posting is archived in the periodic posting archive on host
  33. rtfm.mit.edu (and on some other hosts as well). Look in the anonymous
  34. ftp directory "/pub/usenet/news.answers", the filename is as given in the
  35. 'Archive-name:' header above. If you do not have anonymous ftp access,
  36. you can access the archives by mail server as well. Send an E-mail
  37. message to mail-server@rtfm.mit.edu with "help" and "index" in the
  38. body on separate lines for more information.
  39.  
  40. For those of you who read this posting anywhere other than in
  41. comp.ai.neural-nets: To read comp.ai.neural-nets (or post articles to it)
  42. you need Usenet News access. Try the commands, 'xrn', 'rn', 'nn', or 'trn'
  43. on your Unix machine, 'news' on your VMS machine, or ask a local
  44. guru.
  45.  
  46. This monthly posting is also available as a hypertext document in WWW
  47. (World Wide Web) under the URL 
  48. "http://wwwipd.ira.uka.de/Tichy/neural-net-faq.html"
  49.  
  50. The monthly posting is not meant to discuss any topic exhaustively.
  51.  
  52. Disclaimer: 
  53.    This posting is provided 'as is'.
  54.    No warranty whatsoever is expressed or implied, 
  55.    in particular, no warranty that the information contained herein
  56.    is correct or useful in any way, although both is intended.
  57.  
  58. To find the answer of question number 'x', search for the string
  59. "x. A:" (so the answer to question 12 is at   12. A:  )
  60.  
  61.  
  62. And now, in the end, we begin: 
  63.  
  64. ========== Questions ========== 
  65. ********************************
  66.  
  67.  1. What is this newsgroup for? How shall it be used? 
  68.  2. What is a neural network (NN)? 
  69.  3. What can you do with a Neural Network and what not? 
  70.  4. Who is concerned with Neural Networks? 
  71.  
  72.  5. What does 'backprop' mean? 
  73.  6. How many learning methods for NNs exist? Which? 
  74.  7. What about Genetic Algorithms? 
  75.  8. What about Fuzzy Logic? 
  76.  
  77.  9. Good introductory literature about Neural Networks? 
  78.  10. Any journals and magazines about Neural Networks? 
  79.  11. The most important conferences concerned with Neural
  80.    Networks? 
  81.  12. Neural Network Associations? 
  82.  13. Other sources of information about NNs? 
  83.  
  84.  14. Freely available software packages for NN simulation? 
  85.  15. Commercial software packages for NN simulation? 
  86.  16. Neural Network hardware? 
  87.  
  88.  17. Databases for experimentation with NNs? 
  89.  
  90. ========== Answers ========== 
  91. ******************************
  92.  
  93.  1. A: What is this newsgroup for? How shall it be
  94.  =================================================
  95.    used?
  96.    =====
  97.  
  98.    The newsgroup comp.ai.neural-nets is inteded as a forum for
  99.    people who want to use or explore the capabilities of Artificial
  100.    Neural Networks or Neural-Network-like structures.
  101.  
  102.    There should be the following types of articles in this newsgroup:
  103.  
  104.     1. Requests
  105.     +++++++++++
  106.  
  107.       Requests are articles of the form "I am looking for
  108.       X" where X is something public like a book, an article, a
  109.       piece of software. The most important about such a request
  110.       is to be as specific as possible!
  111.  
  112.       If multiple different answers can be expected, the person
  113.       making the request should prepare to make a summary of
  114.       the answers he/she got and announce to do so with a
  115.       phrase like "Please reply by email, I'll
  116.       summarize to the group" at the end of the posting.
  117.  
  118.       The Subject line of the posting should then be something
  119.       like "Request: X" 
  120.  
  121.     2. Questions
  122.     ++++++++++++
  123.  
  124.       As opposed to requests, questions ask for a larger piece of
  125.       information or a more or less detailed explanation of
  126.       something. To avoid lots of redundant traffic it is important
  127.       that the poster provides with the question all information
  128.       s/he already has about the subject asked and state the
  129.       actual question as precise and narrow as possible. The
  130.       poster should prepare to make a summary of the answers
  131.       s/he got and announce to do so with a phrase like 
  132.       "Please reply by email, I'll summarize to
  133.       the group" at the end of the posting.
  134.  
  135.       The Subject line of the posting should be something like 
  136.       "Question: this-and-that" or have the form of a
  137.       question (i.e., end with a question mark) 
  138.  
  139.     3. Answers
  140.     ++++++++++
  141.  
  142.       These are reactions to questions or requests. As a rule of
  143.       thumb articles of type "answer" should be rare. Ideally, in
  144.       most cases either the answer is too specific to be of general
  145.       interest (and should thus be e-mailed to the poster) or a
  146.       summary was announced with the question or request (and
  147.       answers should thus be e-mailed to the poster).
  148.  
  149.       The subject lines of answers are automatically adjusted by
  150.       the news software. Note that sometimes longer threads of
  151.       discussion evolve from an answer to a question or request.
  152.       In this case posters should change the subject line suitably
  153.       as soon as the topic goes too far away from the one
  154.       announced in the original subject line. You can still carry
  155.       along the old subject in parentheses in the form 
  156.       "Subject: new subject (was: old subject)" 
  157.  
  158.     4. Summaries
  159.     ++++++++++++
  160.  
  161.       In all cases of requests or questions the answers for which
  162.       can be assumed to be of some general interest, the poster of
  163.       the request or question shall summarize the ansers he/she
  164.       received. Such a summary should be announced in the
  165.       original posting of the question or request with a phrase
  166.       like "Please answer by email, I'll
  167.       summarize"
  168.  
  169.       In such a case, people who answer to a question should
  170.       NOT post their answer to the newsgroup but instead mail
  171.       them to the poster of the question who collects and reviews
  172.       them. After about 5 to 20 days after the original posting, its
  173.       poster should make the summary of answers and post it to
  174.       the newsgroup.
  175.  
  176.       Some care should be invested into a summary: 
  177.        o simple concatenation of all the answers is not
  178.          enough: instead, redundancies, irrelevancies,
  179.          verbosities, and errors should be filtered out (as good
  180.          as possible) 
  181.        o the answers should be separated clearly 
  182.        o the contributors of the individual answers should be
  183.          identifiable (unless they requested to remain
  184.          anonymous [yes, that happens]) 
  185.        o the summary should start with the "quintessence" of
  186.          the answers, as seen by the original poster 
  187.        o A summary should, when posted, clearly be
  188.          indicated to be one by giving it a Subject line
  189.          starting with "SUMMARY:" 
  190.       Note that a good summary is pure gold for the rest of the
  191.       newsgroup community, so summary work will be most
  192.       appreciated by all of us. Good summaries are more valuable
  193.       than any moderator ! :-) 
  194.  
  195.     5. Announcements
  196.     ++++++++++++++++
  197.  
  198.       Some articles never need any public reaction. These are
  199.       called announcements (for instance for a workshop,
  200.       conference or the availability of some technical report or
  201.       software system).
  202.  
  203.       Announcements should be clearly indicated to be such by
  204.       giving them a subject line of the form "Announcement:
  205.       this-and-that" 
  206.  
  207.     6. Reports
  208.     ++++++++++
  209.  
  210.       Sometimes people spontaneously want to report something
  211.       to the newsgroup. This might be special experiences with
  212.       some software, results of own experiments or conceptual
  213.       work, or especially interesting information from
  214.       somewhere else.
  215.  
  216.       Reports should be clearly indicated to be such by giving
  217.       them a subject line of the form "Report:
  218.       this-and-that" 
  219.  
  220.     7. Discussions
  221.     ++++++++++++++
  222.  
  223.       An especially valuable possibility of Usenet is of course
  224.       that of discussing a certain topic with hundreds of potential
  225.       participants. All traffic in the newsgroup that can not be
  226.       subsumed under one of the above categories should belong
  227.       to a discussion.
  228.  
  229.       If somebody explicitly wants to start a discussion, he/she
  230.       can do so by giving the posting a subject line of the form 
  231.       "Subject: Discussion: this-and-that"
  232.  
  233.       It is quite difficult to keep a discussion from drifting into
  234.       chaos, but, unfortunately, as many many other newsgroups
  235.       show there seems to be no secure way to avoid this. On the
  236.       other hand, comp.ai.neural-nets has not had many
  237.       problems with this effect in the past, so let's just go and
  238.       hope... 
  239.  
  240.    ------------------------------------------------------------------------
  241.  
  242.  2. A: What is a neural network (NN)?
  243.  ====================================
  244.  
  245.    First of all, when we are talking about a neural network, we
  246.    *should* usually better say "artificial neural network" (ANN),
  247.    because that is what we mean most of the time. Biological neural
  248.    networks are much more complicated in their elementary
  249.    structures than the mathematical models we use for ANNs.
  250.  
  251.    A vague description is as follows:
  252.  
  253.    An ANN is a network of many very simple processors ("units"),
  254.    each possibly having a (small amount of) local memory. The units
  255.    are connected by unidirectional communication channels
  256.    ("connections"), which carry numeric (as opposed to symbolic)
  257.    data. The units operate only on their local data and on the inputs
  258.    they receive via the connections.
  259.  
  260.    The design motivation is what distinguishes neural networks from
  261.    other mathematical techniques:
  262.  
  263.    A neural network is a processing device, either an algorithm, or
  264.    actual hardware, whose design was motivated by the design and
  265.    functioning of human brains and components thereof.
  266.  
  267.    Most neural networks have some sort of "training" rule whereby
  268.    the weights of connections are adjusted on the basis of presented
  269.    patterns. In other words, neural networks "learn" from examples,
  270.    just like children learn to recognize dogs from examples of dogs,
  271.    and exhibit some structural capability for generalization.
  272.  
  273.    Neural networks normally have great potential for parallelism,
  274.    since the computations of the components are independent of each
  275.    other. 
  276.  
  277.    ------------------------------------------------------------------------
  278.  
  279.  3. A: What can you do with a Neural Network and
  280.  ===============================================
  281.    what not?
  282.    =========
  283.  
  284.    In principle, NNs can compute any computable function, i.e. they
  285.    can do everything a normal digital computer can do. Especially
  286.    anything that can be represented as a mapping between vector
  287.    spaces can be approximated to arbitrary precision by feedforward
  288.    NNs (which is the most often used type).
  289.  
  290.    In practice, NNs are especially useful for mapping problems which
  291.    are tolerant of some errors, have lots of example data available,
  292.    but to which hard and fast rules can not easily be applied. NNs
  293.    are, at least today, difficult to apply successfully to problems that
  294.    concern manipulation of symbols and memory. 
  295.  
  296.    ------------------------------------------------------------------------
  297.  
  298.  4. A: Who is concerned with Neural Networks?
  299.  ============================================
  300.  
  301.    Neural Networks are interesting for quite a lot of very dissimilar
  302.    people: 
  303.     o Computer scientists want to find out about the properties
  304.       of non-symbolic information processing with neural nets
  305.       and about learning systems in general. 
  306.     o Engineers of many kinds want to exploit the capabilities of
  307.       neural networks on many areas (e.g. signal processing) to
  308.       solve their application problems. 
  309.     o Cognitive scientists view neural networks as a possible
  310.       apparatus to describe models of thinking and conscience
  311.       (High-level brain function). 
  312.     o Neuro-physiologists use neural networks to describe and
  313.       explore medium-level brain function (e.g. memory, sensory
  314.       system, motorics). 
  315.     o Physicists use neural networks to model phenomena in
  316.       statistical mechanics and for a lot of other tasks. 
  317.     o Biologists use Neural Networks to interpret nucleotide
  318.       sequences. 
  319.     o Philosophers and some other people may also be interested
  320.       in Neural Networks for various reasons. 
  321.  
  322.    ------------------------------------------------------------------------
  323.  
  324.  5. A: What does 'backprop' mean?
  325.  ================================
  326.  
  327.    It is an abbreviation for 'backpropagation of error' which is the
  328.    most widely used learning method for neural networks today.
  329.    Although it has many disadvantages, which could be summarized
  330.    in the sentence "You are almost not knowing what you are
  331.    actually doing when using backpropagation" :-) it has pretty
  332.    much success on practical applications and is relatively easy to
  333.    apply.
  334.  
  335.    It is for the training of layered (i.e., nodes are grouped in layers)
  336.    feedforward (i.e., the arcs joining nodes are unidirectional, and
  337.    there are no cycles) nets (often called "multi layer perceptrons").
  338.  
  339.    Back-propagation needs a teacher that knows the correct output
  340.    for any input ("supervised learning") and uses gradient descent on
  341.    the error (as provided by the teacher) to train the weights. The
  342.    activation function is (usually) a sigmoidal (i.e., bounded above
  343.    and below, but differentiable) function of a weighted sum of the
  344.    nodes inputs.
  345.  
  346.    The use of a gradient descent algorithm to train its weights makes
  347.    it slow to train; but being a feedforward algorithm, it is quite rapid
  348.    during the recall phase.
  349.  
  350.    Literature:
  351.       Rumelhart, D. E. and McClelland, J. L. (1986): Parallel
  352.       Distributed Processing: Explorations in the Microstructure
  353.       of Cognition (volume 1, pp 318-362). The MIT Press. 
  354.  
  355.    (this is the classic one) or one of the dozens of other books or
  356.    articles on backpropagation (see also answer 9). 
  357.  
  358.    ------------------------------------------------------------------------
  359.  
  360.  6. A: How many learning methods for NNs exist?
  361.  ==============================================
  362.    Which?
  363.    ======
  364.  
  365.    There are many many learning methods for NNs by now. Nobody
  366.    knows exactly how many. New ones (at least variations of existing
  367.    ones) are invented every week. Below is a collection of some of the
  368.    most well known methods; not claiming to be complete.
  369.  
  370.    The main categorization of these methods is the distiction of
  371.    supervised from unsupervised learning:
  372.  
  373.    In supervised learning, there is a "teacher" who in the learning
  374.    phase "tells" the net how well it performs ("reinforcement
  375.    learning") or what the correct behavior would have been ("fully
  376.    supervised learning").
  377.  
  378.    In unsupervised learning the net is autonomous: it just looks at the
  379.    data it is presented with, finds out about some of the properties of
  380.    the data set and learns to reflect these properties in its output.
  381.    What exactly these properties are, that the network can learn to
  382.    recognise, depends on the particular network model and learning
  383.    method.
  384.  
  385.    Many of these learning methods are closely connected with a
  386.    certain (class of) network topology.
  387.  
  388.    Now here is the list, just giving some names:
  389.  
  390.    1. UNSUPERVISED LEARNING (i.e. without a "teacher"):
  391.         1). Feedback Nets:
  392.            a). Additive Grossberg (AG)
  393.            b). Shunting Grossberg (SG)
  394.            c). Binary Adaptive Resonance Theory (ART1)
  395.            d). Analog Adaptive Resonance Theory (ART2, ART2a)
  396.            e). Discrete Hopfield (DH)
  397.            f). Continuous Hopfield (CH)
  398.            g). Discrete Bidirectional Associative Memory (BAM)
  399.            h). Temporal Associative Memory (TAM)
  400.            i). Adaptive Bidirectional Associative Memory (ABAM)
  401.            j). Kohonen Self-organizing Map/Topology-preserving map (SOM/TPM)
  402.            k). Competitive learning
  403.         2). Feedforward-only Nets:
  404.            a). Learning Matrix (LM)
  405.            b). Driver-Reinforcement Learning (DR)
  406.            c). Linear Associative Memory (LAM)
  407.            d). Optimal Linear Associative Memory (OLAM)
  408.            e). Sparse Distributed Associative Memory (SDM)
  409.            f). Fuzzy Associative Memory (FAM)
  410.            g). Counterprogation (CPN)
  411.  
  412.    2. SUPERVISED LEARNING (i.e. with a "teacher"):
  413.         1). Feedback Nets:
  414.            a). Brain-State-in-a-Box (BSB)
  415.            b). Fuzzy Congitive Map (FCM)
  416.            c). Boltzmann Machine (BM)
  417.            d). Mean Field Annealing (MFT)
  418.            e). Recurrent Cascade Correlation (RCC)
  419.            f). Learning Vector Quantization (LVQ)
  420.            g). Backpropagation through time (BPTT)
  421.            h). Real-time recurrent learning (RTRL)
  422.            i). Recurrent Extended Kalman Filter (EKF)
  423.         2). Feedforward-only Nets:
  424.            a). Perceptron
  425.            b). Adaline, Madaline
  426.            c). Backpropagation (BP)
  427.            d). Cauchy Machine (CM)
  428.            e). Adaptive Heuristic Critic (AHC)
  429.            f). Time Delay Neural Network (TDNN)
  430.            g). Associative Reward Penalty (ARP)
  431.            h). Avalanche Matched Filter (AMF)
  432.            i). Backpercolation (Perc)
  433.            j). Artmap
  434.            k). Adaptive Logic Network (ALN)
  435.            l). Cascade Correlation (CasCor)
  436.            m). Extended Kalman Filter(EKF)
  437.  
  438.    ------------------------------------------------------------------------
  439.  
  440.  7. A: What about Genetic Algorithms?
  441.  ====================================
  442.  
  443.    There are a number of definitions of GA (Genetic Algorithm). A
  444.    possible one is
  445.  
  446.      A GA is an optimization program
  447.      that starts with 
  448.      a population of encoded procedures,       (Creation of Life :-> )
  449.      mutates them stochastically,              (Get cancer or so :-> )
  450.      and uses a selection process              (Darwinism)
  451.      to prefer the mutants with high fitness
  452.      and perhaps a recombination process       (Make babies :-> )
  453.      to combine properties of (preferably) the succesful mutants.
  454.  
  455.    Genetic Algorithms are just a special case of the more general idea
  456.    of ``evolutionary computation''. There is a newsgroup that is
  457.    dedicated to the field of evolutionary computation called
  458.    comp.ai.genetic. It has a detailed FAQ posting which, for instance,
  459.    explains the terms "Genetic Algorithm", "Evolutionary
  460.    Programming", "Evolution Strategy", "Classifier System", and
  461.    "Genetic Programming". That FAQ also contains lots of pointers
  462.    to relevant literature, software, other sources of information, et
  463.    cetera et cetera. Please see the comp.ai.genetic FAQ for further
  464.    information. 
  465.  
  466.    ------------------------------------------------------------------------
  467.  
  468.  8. A: What about Fuzzy Logic?
  469.  =============================
  470.  
  471.    Fuzzy Logic is an area of research based on the work of L.A.
  472.    Zadeh. It is a departure from classical two-valued sets and logic,
  473.    that uses "soft" linguistic (e.g. large, hot, tall) system variables and
  474.    a continuous range of truth values in the interval [0,1], rather
  475.    than strict binary (True or False) decisions and assignments.
  476.  
  477.    Fuzzy logic is used where a system is difficult to model exactly
  478.    (but an inexact model is available), is controlled by a human
  479.    operator or expert, or where ambiguity or vagueness is common. A
  480.    typical fuzzy system consists of a rule base, membership functions,
  481.    and an inference procedure.
  482.  
  483.    Most Fuzzy Logic discussion takes place in the newsgroup
  484.    comp.ai.fuzzy, but there is also some work (and discussion) about
  485.    combining fuzzy logic with Neural Network approaches in
  486.    comp.ai.neural-nets.
  487.  
  488.    For more details see (for example): 
  489.  
  490.    Klir, G.J. and Folger, T.A.: Fuzzy Sets, Uncertainty, and
  491.    Information Prentice-Hall, Englewood Cliffs, N.J., 1988. 
  492.    Kosko, B.: Neural Networks and Fuzzy Systems Prentice Hall,
  493.    Englewood Cliffs, NJ, 1992. 
  494.  
  495. ------------------------------------------------------------------------
  496.  
  497. o A: Good introductory literature about Neural
  498. o ============================================
  499. Networks?
  500. =========
  501.  
  502. 0.) The best (subjectively, of course -- please don't flame me):
  503. ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  504.  
  505. Haykin, S. (1994). Neural Networks, a Comprehensive Foundation.
  506. Macmillan, New York, NY. "A very readable, well written intermediate
  507. to advanced text on NNs Perspective is primarily one of pattern
  508. recognition, estimation and signal processing. However, there are
  509. well-written chapters on neurodynamics and VLSI implementation.
  510. Though there is emphasis on formal mathematical models of NNs as
  511. universal approximators, statistical estimators, etc., there are also
  512. examples of NNs used in practical applications. The problem sets at the
  513. end of each chapter nicely complement the material. In the bibliography
  514. are over 1000 references. If one buys only one book on neural networks,
  515. this should be it."
  516.  
  517. Hecht-Nielsen, R. (1990). Neurocomputing. Addison Wesley. Comments:
  518. "A good book", "comprises a nice historical overview and a chapter about
  519. NN hardware. Well structured prose. Makes important concepts clear."
  520.  
  521. Hertz, J., Krogh, A., and Palmer, R. (1991). Introduction to the Theory of
  522. Neural Computation. Addison-Wesley: Redwood City, California. ISBN
  523. 0-201-50395-6 (hardbound) and 0-201-51560-1 (paperbound)
  524. Comments: "My first impression is that this one is by far the best book on
  525. the topic. And it's below $30 for the paperback."; "Well written,
  526. theoretical (but not overwhelming)"; It provides a good balance of model
  527. development, computational algorithms, and applications. The
  528. mathematical derivations are especially well done"; "Nice mathematical
  529. analysis on the mechanism of different learning algorithms"; "It is NOT
  530. for mathematical beginner. If you don't have a good grasp of higher level
  531. math, this book can be really tough to get through."
  532.  
  533. Masters,Timothy (1994). Practical Neural Network Recipes in C++.
  534. Academic Press, ISBN 0-12-479040-2, US $45 incl. disks. "Lots of very
  535. good practical advice which most other books lack."
  536.  
  537. 1.) Books for the beginner:
  538. +++++++++++++++++++++++++++
  539.  
  540. Aleksander, I. and Morton, H. (1990). An Introduction to Neural
  541. Computing. Chapman and Hall. (ISBN 0-412-37780-2). Comments:
  542. "This book seems to be intended for the first year of university
  543. education."
  544.  
  545. Beale, R. and Jackson, T. (1990). Neural Computing, an Introduction.
  546. Adam Hilger, IOP Publishing Ltd : Bristol. (ISBN 0-85274-262-2).
  547. Comments: "It's clearly written. Lots of hints as to how to get the
  548. adaptive models covered to work (not always well explained in the
  549. original sources). Consistent mathematical terminology. Covers
  550. perceptrons, error-backpropagation, Kohonen self-org model, Hopfield
  551. type models, ART, and associative memories."
  552.  
  553. Dayhoff, J. E. (1990). Neural Network Architectures: An Introduction.
  554. Van Nostrand Reinhold: New York. Comments: "Like Wasserman's
  555. book, Dayhoff's book is also very easy to understand".
  556.  
  557. Fausett, L. V. (1994. Fundamentals of Neural Networks: Architectures,
  558. Algorithms and Applications, Prentice Hall, ISBN 0-13-334186-0. Also
  559. published as a Prentice Hall International Edition, ISBN 0-13-042250-9.
  560. Sample softeware (source code listings in C and Fortran) is included in
  561. an Instructor's Manual. "Intermediate in level between Wasserman and
  562. Hertz/Krogh/Palmer. Algorithms for a broad range of neural networks,
  563. including a chapter on Adaptive Resonace Theory with ART2. Simple
  564. examples for each network."
  565.  
  566. McClelland, J. L. and Rumelhart, D. E. (1988). Explorations in Parallel
  567. Distributed Processing: Computational Models of Cognition and
  568. Perception (software manual). The MIT Press. Comments: "Written in a
  569. tutorial style, and includes 2 diskettes of NN simulation programs that
  570. can be compiled on MS-DOS or Unix (and they do too !)"; "The
  571. programs are pretty reasonable as an introduction to some of the things
  572. that NNs can do."; "There are *two* editions of this book. One comes
  573. with disks for the IBM PC, the other comes with disks for the
  574. Macintosh".
  575.  
  576. McCord Nelson, M. and Illingworth, W.T. (1990). A Practical Guide to
  577. Neural Nets. Addison-Wesley Publishing Company, Inc. (ISBN
  578. 0-201-52376-0). Comments: "No formulas at all"; "It does not have
  579. much detailed model development (very few equations), but it does
  580. present many areas of application. It includes a chapter on current areas
  581. of research. A variety of commercial applications is discussed in chapter
  582. 1. It also includes a program diskette with a fancy graphical interface
  583. (unlike the PDP diskette)".
  584.  
  585. Muller, B. and Reinhardt, J. (1990). Neural Networks, An Introduction.
  586. Springer-Verlag: Berlin Heidelberg New York (ISBN: 3-540-52380-4
  587. and 0-387-52380-4). Comments: The book was developed out of a
  588. course on neural-network models with computer demonstrations that
  589. was taught by the authors to Physics students. The book comes together
  590. with a PC-diskette. The book is divided into three parts: (1) Models of
  591. Neural Networks; describing several architectures and learing rules,
  592. including the mathematics. (2) Statistical Physiscs of Neural Networks;
  593. "hard-core" physics section developing formal theories of stochastic
  594. neural networks. (3) Computer Codes; explanation about the
  595. demonstration programs. First part gives a nice introduction into neural
  596. networks together with the formulas. Together with the demonstration
  597. programs a 'feel' for neural networks can be developed.
  598.  
  599. Orchard, G.A. & Phillips, W.A. (1991). Neural Computation: A
  600. Beginner's Guide. Lawrence Earlbaum Associates: London. Comments:
  601. "Short user-friendly introduction to the area, with a non-technical
  602. flavour. Apparently accompanies a software package, but I haven't seen
  603. that yet".
  604.  
  605. Rao, V.B & H.V. (1993). C++ Neural Networks and Fuzzy Logic.
  606. MIS:Press, ISBN 1-55828-298-x, US $45 incl. disks. "Probably not
  607. 'leading edge' stuff but detailed enough to get your hands dirty!"
  608.  
  609. Wasserman, P. D. (1989). Neural Computing: Theory & Practice. Van
  610. Nostrand Reinhold: New York. (ISBN 0-442-20743-3) Comments:
  611. "Wasserman flatly enumerates some common architectures from an
  612. engineer's perspective ('how it works') without ever addressing the
  613. underlying fundamentals ('why it works') - important basic concepts
  614. such as clustering, principal components or gradient descent are not
  615. treated. It's also full of errors, and unhelpful diagrams drawn with what
  616. appears to be PCB board layout software from the '70s. For anyone who
  617. wants to do active research in the field I consider it quite inadequate";
  618. "Okay, but too shallow"; "Quite easy to understand"; "The best bedtime
  619. reading for Neural Networks. I have given this book to numerous
  620. collegues who want to know NN basics, but who never plan to implement
  621. anything. An excellent book to give your manager."
  622.  
  623. Wasserman, P.D. (1993). Advanced Methods in Neural Computing. Van
  624. Nostrand Reinhold: New York (ISBN: 0-442-00461-3). Comments:
  625. Several neural network topics are discussed e.g. Probalistic Neural
  626. Networks, Backpropagation and beyond, neural control, Radial Basis
  627. Function Networks, Neural Engineering. Furthermore, several subjects
  628. related to neural networks are mentioned e.g. genetic algorithms, fuzzy
  629. logic, chaos. Just the functionality of these subjects is described; enough
  630. to get you started. Lots of references are given to more elaborate
  631. descriptions. Easy to read, no extensive mathematical background
  632. necessary.
  633.  
  634. 2.) The classics:
  635. +++++++++++++++++
  636.  
  637. Kohonen, T. (1984). Self-organization and Associative Memory.
  638. Springer-Verlag: New York. (2nd Edition: 1988; 3rd edition: 1989).
  639. Comments: "The section on Pattern mathematics is excellent."
  640.  
  641. Rumelhart, D. E. and McClelland, J. L. (1986). Parallel Distributed
  642. Processing: Explorations in the Microstructure of Cognition (volumes 1
  643. & 2). The MIT Press. Comments: "As a computer scientist I found the
  644. two Rumelhart and McClelland books really heavy going and definitely
  645. not the sort of thing to read if you are a beginner."; "It's quite readable,
  646. and affordable (about $65 for both volumes)."; "THE Connectionist
  647. bible".
  648.  
  649. 3.) Introductory journal articles:
  650. ++++++++++++++++++++++++++++++++++
  651.  
  652. Hinton, G. E. (1989). Connectionist learning procedures. Artificial
  653. Intelligence, Vol. 40, pp. 185--234. Comments: "One of the better neural
  654. networks overview papers, although the distinction between network
  655. topology and learning algorithm is not always very clear. Could very well
  656. be used as an introduction to neural networks."
  657.  
  658. Knight, K. (1990). Connectionist, Ideas and Algorithms. Communications
  659. of the ACM. November 1990. Vol.33 nr.11, pp 59-74. Comments:"A good
  660. article, while it is for most people easy to find a copy of this journal."
  661.  
  662. Kohonen, T. (1988). An Introduction to Neural Computing. Neural
  663. Networks, vol. 1, no. 1. pp. 3-16. Comments: "A general review".
  664.  
  665. 4.) Not-quite-so-introductory literature:
  666. +++++++++++++++++++++++++++++++++++++++++
  667.  
  668. Anderson, J. A. and Rosenfeld, E. (Eds). (1988). Neurocomputing:
  669. Foundations of Research. The MIT Press: Cambridge, MA. Comments:
  670. "An expensive book, but excellent for reference. It is a collection of
  671. reprints of most of the major papers in the field." 
  672.  
  673. Anderson, J. A., Pellionisz, A. and Rosenfeld, E. (Eds). (1990).
  674. Neurocomputing 2: Directions for Research. The MIT Press: Cambridge,
  675. MA. Comments: "The sequel to their well-known Neurocomputing
  676. book."
  677.  
  678. Caudill, M. and Butler, C. (1990). Naturally Intelligent Systems. MIT
  679. Press: Cambridge, Massachusetts. (ISBN 0-262-03156-6). Comments:
  680. "I guess one of the best books I read"; "May not be suited for people who
  681. want to do some research in the area".
  682.  
  683. Cichocki, A. and Unbehauen, R. (1994). Neural Networks for
  684. Optimization and Signal Processing. John Wiley & Sons, West Sussex,
  685. England, 1993, ISBN 0-471-930105 (hardbound), 526 pages, $57.95.
  686. "Partly a textbook and partly a research monograph; introduces the basic
  687. concepts, techniques, and models related to neural networks and
  688. optimization, excluding rigorous mathematical details. Accessible to a
  689. wide readership with a differential calculus background. The main
  690. coverage of the book is on recurrent neural networks with continuous
  691. state variables. The book title would be more appropriate without
  692. mentioning signal processing. Well edited, good illustrations."
  693.  
  694. Khanna, T. (1990). Foundations of Neural Networks. Addison-Wesley:
  695. New York. Comments: "Not so bad (with a page of erroneous formulas
  696. (if I remember well), and #hidden layers isn't well described).";
  697. "Khanna's intention in writing his book with math analysis should be
  698. commended but he made several mistakes in the math part".
  699.  
  700. Kung, S.Y. (1993). Digital Neural Networks, Prentice Hall, Englewood
  701. Cliffs, NJ.
  702.  
  703. Levine, D. S. (1990). Introduction to Neural and Cognitive Modeling.
  704. Lawrence Erlbaum: Hillsdale, N.J. Comments: "Highly recommended".
  705.  
  706. Lippmann, R. P. (April 1987). An introduction to computing with neural
  707. nets. IEEE Acoustics, Speech, and Signal Processing Magazine. vol. 2, no.
  708. 4, pp 4-22. Comments: "Much acclaimed as an overview of neural
  709. networks, but rather inaccurate on several points. The categorization into
  710. binary and continuous- valued input neural networks is rather arbitrary,
  711. and may work confusing for the unexperienced reader. Not all networks
  712. discussed are of equal importance."
  713.  
  714. Maren, A., Harston, C. and Pap, R., (1990). Handbook of Neural
  715. Computing Applications. Academic Press. ISBN: 0-12-471260-6. (451
  716. pages) Comments: "They cover a broad area"; "Introductory with
  717. suggested applications implementation".
  718.  
  719. Pao, Y. H. (1989). Adaptive Pattern Recognition and Neural Networks
  720. Addison-Wesley Publishing Company, Inc. (ISBN 0-201-12584-6)
  721. Comments: "An excellent book that ties together classical approaches to
  722. pattern recognition with Neural Nets. Most other NN books do not even
  723. mention conventional approaches."
  724.  
  725. Rumelhart, D. E., Hinton, G. E. and Williams, R. J. (1986). Learning
  726. representations by back-propagating errors. Nature, vol 323 (9 October),
  727. pp. 533-536. Comments: "Gives a very good potted explanation of
  728. backprop NN's. It gives sufficient detail to write your own NN
  729. simulation."
  730.  
  731. Simpson, P. K. (1990). Artificial Neural Systems: Foundations,
  732. Paradigms, Applications and Implementations. Pergamon Press: New
  733. York. Comments: "Contains a very useful 37 page bibliography. A large
  734. number of paradigms are presented. On the negative side the book is very
  735. shallow. Best used as a complement to other books".
  736.  
  737. Zeidenberg. M. (1990). Neural Networks in Artificial Intelligence. Ellis
  738. Horwood, Ltd., Chichester. Comments: "Gives the AI point of view".
  739.  
  740. Zornetzer, S. F., Davis, J. L. and Lau, C. (1990). An Introduction to
  741. Neural and Electronic Networks. Academic Press. (ISBN
  742. 0-12-781881-2) Comments: "Covers quite a broad range of topics
  743. (collection of articles/papers )."; "Provides a primer-like introduction and
  744. overview for a broad audience, and employs a strong interdisciplinary
  745. emphasis".
  746.  
  747. ------------------------------------------------------------------------
  748.  
  749. o A: Any journals and magazines about Neural
  750. o ==========================================
  751. Networks?
  752. =========
  753.  
  754. [to be added: comments on speed of reviewing and publishing,
  755.               whether they accept TeX format or ASCII by e-mail, etc.]
  756.  
  757. A. Dedicated Neural Network Journals:
  758. +++++++++++++++++++++++++++++++++++++
  759.  
  760. Title:   Neural Networks
  761. Publish: Pergamon Press
  762. Address: Pergamon Journals Inc., Fairview Park, Elmsford, 
  763.          New York 10523, USA and Pergamon Journals Ltd.
  764.          Headington Hill Hall, Oxford OX3, 0BW, England
  765. Freq.:   10 issues/year (vol. 1 in 1988)
  766. Cost/Yr: Free with INNS or JNNS or ENNS membership ($45?),
  767.          Individual $65, Institution $175
  768. ISSN #:  0893-6080
  769. Remark:  Official Journal of International Neural Network Society (INNS),
  770.          European Neural Network Society (ENNS) and Japanese Neural
  771.          Network Society (JNNS).
  772.          Contains Original Contributions, Invited Review Articles, Letters
  773.          to Editor, Book Reviews, Editorials, Announcements, Software Surveys.
  774.  
  775. Title:   Neural Computation
  776. Publish: MIT Press 
  777. Address: MIT Press Journals, 55 Hayward Street Cambridge, 
  778.          MA 02142-9949, USA, Phone: (617) 253-2889
  779. Freq.:   Quarterly (vol. 1 in 1989)
  780. Cost/Yr: Individual $45, Institution $90, Students $35; Add $9 Outside USA
  781. ISSN #:  0899-7667
  782. Remark:  Combination of Reviews (10,000 words), Views (4,000 words)
  783.          and Letters (2,000 words).  I have found this journal to be of
  784.          outstanding quality.
  785.          (Note: Remarks supplied by Mike Plonski "plonski@aero.org")
  786.  
  787. Title:   IEEE Transactions on Neural Networks
  788. Publish: Institute of Electrical and Electronics Engineers (IEEE)
  789. Address: IEEE Service Cemter, 445 Hoes Lane, P.O. Box 1331, Piscataway, NJ,
  790.          08855-1331 USA. Tel: (201) 981-0060
  791. Cost/Yr: $10 for Members belonging to participating IEEE societies
  792. Freq.:   Quarterly (vol. 1 in March 1990)
  793. Remark:  Devoted to the science and technology of neural networks
  794.          which disclose significant  technical knowledge, exploratory
  795.          developments and applications of neural networks from biology to
  796.          software to hardware.  Emphasis is on artificial neural networks.
  797.          Specific aspects include self organizing systems, neurobiological
  798.          connections, network dynamics and architecture, speech recognition,
  799.          electronic and photonic implementation, robotics and controls.
  800.          Includes Letters concerning new research results.
  801.          (Note: Remarks are from journal announcement)
  802.  
  803. Title:   International Journal of Neural Systems
  804. Publish: World Scientific Publishing
  805. Address: USA: World Scientific Publishing Co., 687 Hartwell Street, Teaneck, 
  806.          NJ 07666. Tel: (201) 837-8858; Eurpoe: World Scientific Publishing 
  807.          Co. Pte. Ltd., 73 Lynton Mead, Totteridge, London N20-8DH, England. 
  808.          Tel: (01) 4462461; Other: World Scientific Publishing Co. Pte. Ltd.,
  809.          Farrer Road, P.O. Box 128, Singapore 9128. Tel: 2786188
  810. Freq.:   Quarterly (Vol. 1 in 1990?)
  811. Cost/Yr: Individual $42, Institution $88 (plus $9-$17 for postage)
  812. ISSN #:  0129-0657 (IJNS)
  813. Remark:  The International Journal of Neural Systems is a quarterly
  814.          journal which covers information processing in natural
  815.          and artificial neural systems.
  816.          It publishes original contributions on all aspects of this
  817.          broad subject which involves physics, biology, psychology, computer
  818.          science and engineering. Contributions include research papers, 
  819.          reviews and short communications.  The journal presents a fresh 
  820.          undogmatic attitude towards this multidisciplinary field with the
  821.          aim to be a forum for novel ideas and improved understanding of 
  822.          collective and cooperative phenomena with computational
  823.          capabilities.
  824.          (Note: Remarks supplied by B. Lautrup (editor),
  825.          "LAUTRUP%nbivax.nbi.dk@CUNYVM.CUNY.EDU" )
  826.          Review is reported to be very slow.
  827.  
  828. Title:   International Journal of Neurocomputing
  829. Publish: Elsevier Science Publishers, Journal Dept.; PO Box 211;
  830.          1000 AE Amsterdam, The Netherlands
  831. Freq.:   Quarterly (vol. 1 in 1989)
  832. Editor:  V.D. Sanchez A.; German Aerospace Research Establishment;
  833.          Institute for Robotics and System Dynamics, 82230 Wessling, Germany.
  834.          Current events and software news editor: Dr. F. Murtagh, ESA,
  835.          Karl-Schwarzschild Strasse 2, D-85748, Garching, Germany,
  836.          phone +49-89-32006298, fax +49-89-32006480, email fmurtagh@eso.org
  837.  
  838. Title:   Neural Processing Letters
  839. Publish: D facto publications
  840. Address: 45 rue Masui; B-1210 Brussels, Belgium
  841.          Phone: (32) 2 245 43 63;  Fax: (32) 2 245 46 94
  842. Freq:    6 issues/year (vol. 1 in September 1994)
  843. Cost/Yr: BEF 4400 (about $140)
  844. ISSN #:  1370-4621
  845. Remark:  The aim of the journal is to rapidly publish new ideas, original
  846.          developments and work in progress.  Neural Processing Letters
  847.          covers all aspects of the Artificial Neural Networks field.
  848.          Publication delay is about 3 months.
  849.          FTP server available: 
  850.           ftp://ftp.dice.ucl.ac.be/pub/neural-nets/NPL.
  851.          WWW server available: 
  852.             http://www.dice.ucl.ac.be/neural-nets/NPL/NPL.html
  853.  
  854. Title:   Neural Network News
  855. Publish: AIWeek Inc.
  856. Address: Neural Network News, 2555 Cumberland Parkway, Suite 299,
  857.          Atlanta, GA 30339 USA. Tel: (404) 434-2187
  858. Freq.:   Monthly (beginning September 1989)
  859. Cost/Yr: USA and Canada $249, Elsewhere $299
  860. Remark:  Commericial Newsletter
  861.  
  862. Title:   Network: Computation in Neural Systems
  863. Publish: IOP Publishing Ltd
  864. Address: Europe: IOP Publishing Ltd, Techno House, Redcliffe Way, Bristol 
  865.          BS1 6NX, UK; IN USA: American Institute of Physics, Subscriber
  866.          Services 500 Sunnyside Blvd., Woodbury, NY  11797-2999
  867. Freq.:   Quarterly (1st issue 1990)
  868. Cost/Yr: USA: $180,  Europe: 110 pounds
  869. Remark:  Description: "a forum for integrating theoretical and experimental
  870.          findings across relevant interdisciplinary boundaries."  Contents:
  871.          Submitted articles reviewed by two technical referees  paper's 
  872.          interdisciplinary format and accessability."  Also Viewpoints and 
  873.          Reviews commissioned by the editors, abstracts (with reviews) of
  874.          articles published in other journals, and book reviews.
  875.          Comment: While the price discourages me (my comments are based
  876.          upon a free sample copy), I think that the journal succeeds
  877.          very well.  The highest density of interesting articles I
  878.          have found in any journal. 
  879.          (Note: Remarks supplied by kehoe@csufres.CSUFresno.EDU)
  880.  
  881. Title:   Connection Science: Journal of Neural Computing, 
  882.          Artificial Intelligence and Cognitive Research
  883. Publish: Carfax Publishing
  884. Address: Europe: Carfax Publishing Company, P. O. Box 25, Abingdon, 
  885.          Oxfordshire  OX14 3UE, UK.  USA: Carafax Publishing Company,
  886.          85 Ash Street, Hopkinton, MA 01748
  887. Freq.:   Quarterly (vol. 1 in 1989)
  888. Cost/Yr: Individual $82, Institution $184, Institution (U.K.) 74 pounds
  889.  
  890. Title:   International Journal of Neural Networks
  891. Publish: Learned Information
  892. Freq.:   Quarterly (vol. 1 in 1989)
  893. Cost/Yr: 90 pounds
  894. ISSN #:  0954-9889
  895. Remark:  The journal contains articles, a conference report (at least the 
  896.          issue I have), news and a calendar.
  897.          (Note: remark provided by J.R.M. Smits "anjos@sci.kun.nl")
  898.  
  899. Title:   Concepts in NeuroScience
  900. Publish: World Scientific Publishing
  901. Address: Same Address (?) as for International Journal of Neural Systems
  902. Freq.:   Twice per year (vol. 1 in 1989)
  903. Remark:  Mainly Review Articles(?)
  904.          (Note: remarks by Osamu Saito "saito@nttica.NTT.JP")
  905.  
  906. Title:   Sixth Generation Systems (formerly Neurocomputers)
  907. Publish: Gallifrey Publishing
  908. Address: Gallifrey Publishing, PO Box 155, Vicksburg, Michigan, 49097, USA
  909.          Tel: (616) 649-3772, 649-3592 fax
  910. Freq.    Monthly (1st issue January, 1987)
  911. ISSN #:  0893-1585
  912. Editor:  Derek F. Stubbs
  913. Cost/Yr: $79 (USA, Canada), US$95 (elsewhere)
  914. Remark:  Runs eight to 16 pages monthly. In 1995 will go to floppy disc-based
  915. publishing with databases +, "the equivalent to 50 pages per issue are
  916. planned." Often focuses on specific topics: e.g., August, 1994 contains two
  917. articles: "Economics, Times Series and the Market," and "Finite Particle
  918. Analysis - [part] II."  Stubbs also directs the company Advanced Forecasting
  919. Technologies. (Remark by Ed Rosenfeld: ier@aol.com)
  920.  
  921. Title:   JNNS Newsletter (Newsletter of the Japan Neural Network Society)
  922. Publish: The Japan Neural Network Society
  923. Freq.:   Quarterly (vol. 1 in 1989)
  924. Remark:  (IN JAPANESE LANGUAGE) Official Newsletter of the Japan Neural 
  925.          Network Society(JNNS)
  926.          (Note: remarks by Osamu Saito "saito@nttica.NTT.JP")
  927.  
  928. Title:   Neural Networks Today
  929. Remark:  I found this title in a bulletin board of october last year.
  930.          It was a message of Tim Pattison, timpatt@augean.OZ
  931.          (Note: remark provided by J.R.M. Smits "anjos@sci.kun.nl")
  932.  
  933. Title:   Computer Simulations in Brain Science
  934.  
  935. Title:   Internation Journal of Neuroscience
  936.  
  937. Title:   Neural Network Computation 
  938. Remark:  Possibly the same as "Neural Computation"
  939.  
  940. Title:   Neural Computing and Applications
  941. Freq.:   Quarterly
  942. Publish: Springer Verlag
  943. Cost/yr: 120 Pounds
  944. Remark:  Is the journal of the Neural Computing Applications Forum.
  945.          Publishes original research and other information
  946.          in the field of practical applications of neural computing.
  947.  
  948. B. NN Related Journals:
  949. +++++++++++++++++++++++
  950.  
  951. Title:   Complex Systems
  952. Publish: Complex Systems Publications
  953. Address: Complex Systems Publications, Inc., P.O. Box 6149, Champaign,
  954.          IL 61821-8149, USA
  955. Freq.:   6 times per year (1st volume is 1987)
  956. ISSN #:  0891-2513
  957. Cost/Yr: Individual $75, Institution $225
  958. Remark:  Journal COMPLEX SYSTEMS  devotes to rapid publication of research
  959.          on science, mathematics, and engineering of systems with simple
  960.          components but complex overall behavior. Send mail to 
  961.          "jcs@complex.ccsr.uiuc.edu" for additional info.
  962.          (Remark is from announcement on Net)
  963.  
  964. Title:   Biological Cybernetics (Kybernetik)
  965. Publish: Springer Verlag
  966. Remark:  Monthly (vol. 1 in 1961)
  967.  
  968. Title:   Various IEEE Transactions and Magazines
  969. Publish: IEEE
  970. Remark:  Primarily see IEEE Trans. on System, Man and Cybernetics;
  971.          Various Special Issues: April 1990 IEEE Control Systems
  972.          Magazine.; May 1989 IEEE Trans. Circuits and Systems.;
  973.          July 1988 IEEE Trans. Acoust. Speech Signal Process.
  974.  
  975. Title:   The Journal of Experimental and Theoretical Artificial Intelligence
  976. Publish: Taylor & Francis, Ltd.
  977. Address: London, New York, Philadelphia
  978. Freq.:   ? (1st issue Jan 1989)
  979. Remark:  For submission information, please contact either of the editors:
  980.          Eric Dietrich                        Chris Fields
  981.          PACSS - Department of Philosophy     Box 30001/3CRL
  982.          SUNY Binghamton                      New Mexico State University
  983.          Binghamton, NY 13901                 Las Cruces, NM 88003-0001
  984.          dietrich@bingvaxu.cc.binghamton.edu  cfields@nmsu.edu
  985.  
  986. Title:   The Behavioral and Brain Sciences
  987. Publish: Cambridge University Press
  988. Remark:  (Expensive as hell, I'm sure.)
  989.          This is a delightful journal that encourages discussion on a
  990.          variety of controversial topics.  I have especially enjoyed
  991.          reading some papers in there by Dana Ballard and Stephen
  992.          Grossberg (separate papers, not collaborations) a few years
  993.          back.  They have a really neat concept: they get a paper,
  994.          then invite a number of noted scientists in the field to
  995.          praise it or trash it.  They print these commentaries, and
  996.          give the author(s) a chance to make a rebuttal or
  997.          concurrence.  Sometimes, as I'm sure you can imagine, things
  998.          get pretty lively.  I'm reasonably sure they are still at
  999.          it--I think I saw them make a call for reviewers a few
  1000.          months ago.  Their reviewers are called something like
  1001.          Behavioral and Brain Associates, and I believe they have to
  1002.          be nominated by current associates, and should be fairly
  1003.          well established in the field.  That's probably more than I
  1004.          really know about it but maybe if you post it someone who
  1005.          knows more about it will correct any errors I have made.
  1006.          The main thing is that I liked the articles I read. (Note:
  1007.          remarks by Don Wunsch )
  1008.                   
  1009. Title:   International Journal of Applied Intelligence
  1010. Publish: Kluwer Academic Publishers
  1011. Remark:  first issue in 1990(?)
  1012.  
  1013. Title:   Bulletin of Mathematica Biology
  1014.  
  1015. Title:   Intelligence
  1016.  
  1017. Title:   Journal of Mathematical Biology
  1018.  
  1019. Title:   Journal of Complex System
  1020.  
  1021. Title:   AI Expert
  1022. Publish: Miller Freeman Publishing Co., for subscription call ++415-267-7672.
  1023. Remark:  Regularly includes ANN related articles, product
  1024.          announcements, and application reports. Listings of ANN
  1025.          programs are available on AI Expert affiliated BBS's
  1026.  
  1027. Title:   International Journal of Modern Physics C
  1028. Publish: World Scientific Publ. Co.
  1029.          Farrer Rd. P.O.Box 128, Singapore 9128
  1030.          or: 687 Hartwell St., Teaneck, N.J. 07666 U.S.A
  1031.          or: 73 Lynton Mead, Totteridge, London N20 8DH, England
  1032. Freq:    published quarterly
  1033. Eds:     G. Fox, H. Herrmann and K. Kaneko
  1034.  
  1035. Title:   Machine Learning
  1036. Publish: Kluwer Academic Publishers
  1037. Address: Kluwer Academic Publishers
  1038.          P.O. Box 358
  1039.          Accord Station
  1040.          Hingham, MA 02018-0358 USA
  1041. Freq.:   Monthly (8 issues per year; increasing to 12 in 1993)
  1042. Cost/Yr: Individual $140 (1992); Member of AAAI or CSCSI $88
  1043. Remark:  Description: Machine Learning is an international forum for 
  1044.          research on computational approaches to learning.  The journal
  1045.          publishes articles reporting substantive research results on a
  1046.          wide range of learning methods applied to a variety of task
  1047.          domains.  The ideal paper will make a theoretical contribution
  1048.          supported by a computer implementation.
  1049.          The journal has published many key papers in learning theory,
  1050.          reinforcement learning, and decision tree methods.  Recently
  1051.          it has published a special issue on connectionist approaches
  1052.          to symbolic reasoning.  The journal regularly publishes
  1053.          issues devoted to genetic algorithms as well.
  1054.  
  1055. Title:   INTELLIGENCE - The Future of Computing
  1056. Published by: Intelligence
  1057. Address: INTELLIGENCE, P.O. Box 20008, New York, NY 10025-1510, USA,
  1058. 212-222-1123 voice & fax; email: ier@aol.com, CIS: 72400,1013
  1059. Freq.    Monthly plus four special reports each year (1st issue: May, 1984)
  1060. ISSN #:  1042-4296
  1061. Editor:  Edward Rosenfeld 
  1062. Cost/Yr: $395 (USA), US$450 (elsewhere)
  1063. Remark:  Has absorbed several other newsletters, like Synapse/Connection
  1064.          and Critical Technology Trends (formerly AI Trends).
  1065.          Covers NN, genetic algorithms, fuzzy systems, wavelets, chaos
  1066.          and other advanced computing approaches, as well as molecular
  1067.          computing and nanotechnology.
  1068.  
  1069. Title:   Journal of Physics A: Mathematical and General
  1070. Publish: Inst. of Physics, Bristol
  1071. Freq:    24 issues per year.
  1072. Remark:  Statistical mechanics aspects of neural networks 
  1073.          (mostly Hopfield models).
  1074.  
  1075. Title:   Physical Review A: Atomic, Molecular and Optical Physics
  1076. Publish: The American Physical Society (Am. Inst. of Physics)
  1077. Freq:    Monthly
  1078. Remark:  Statistical mechanics of neural networks.
  1079.  
  1080. C. Journals loosely related to NNs:
  1081. +++++++++++++++++++++++++++++++++++
  1082.  
  1083. Title:   JOURNAL OF COMPLEXITY
  1084. Remark:  (Must rank alongside Wolfram's Complex Systems)
  1085.  
  1086. Title:   IEEE ASSP Magazine
  1087. Remark:  (April 1987 had the Lippmann intro. which everyone likes to cite)
  1088.  
  1089. Title:   ARTIFICIAL INTELLIGENCE
  1090. Remark:  (Vol 40, September 1989 had the survey paper by Hinton)
  1091.  
  1092. Title:   COGNITIVE SCIENCE
  1093. Remark:  (the Boltzmann machine paper by Ackley et al appeared here
  1094.          in Vol 9, 1983)
  1095.  
  1096. Title:   COGNITION
  1097. Remark:  (Vol 28, March 1988 contained the Fodor and Pylyshyn
  1098.          critique of connectionism)
  1099.  
  1100. Title:   COGNITIVE PSYCHOLOGY
  1101. Remark:  (no comment!)
  1102.  
  1103. Title:   JOURNAL OF MATHEMATICAL PSYCHOLOGY
  1104. Remark:  (several good book reviews)
  1105.  
  1106. ------------------------------------------------------------------------
  1107.  
  1108. o A: The most important conferences concerned with
  1109. o ================================================
  1110. Neural Networks?
  1111. ================
  1112.  
  1113. [to be added: has taken place how often yet; most emphasized topics;
  1114.  where to get proceedings/calls-for-papers etc. ]
  1115.  
  1116. A. Dedicated Neural Network Conferences:
  1117. ++++++++++++++++++++++++++++++++++++++++
  1118.  
  1119.  1. Neural Information Processing Systems (NIPS) Annually since
  1120.    1988 in Denver, Colorado; late November or early December.
  1121.    Interdisciplinary conference with computer science, physics,
  1122.    engineering, biology, medicine, cognitive science topics. Covers all
  1123.    aspects of NNs. Proceedings appear several months after the
  1124.    conference as a book from Morgan Kaufman, San Mateo, CA. 
  1125.  2. International Joint Conference on Neural Networks (IJCNN)
  1126.    formerly co-sponsored by INNS and IEEE, no longer held. 
  1127.  3. Annual Conference on Neural Networks (ACNN) 
  1128.  4. International Conference on Artificial Neural Networks (ICANN)
  1129.    Annually in Europe. First was 1991. Major conference of
  1130.    European Neur. Netw. Soc. (ENNS) 
  1131.  5. WCNN. Sponsored by INNS. 
  1132.  6. European Symposium on Artificial Neural Networks (ESANN).
  1133.    Anually since 1993 in Brussels, Belgium; late April; conference on
  1134.    the fundamental aspects of artificial neural networks: theory,
  1135.    mathematics, biology, relations between neural networks and
  1136.    other disciplines, statistics, learning, algorithms, models and
  1137.    architectures, self-organization, signal processing, approximation
  1138.    of functions, evolutive learning, etc. Contact: Michel Verleysen, D
  1139.    facto conference services, 45 rue Masui, B-1210 Brussels,
  1140.    Belgium, phone: +32 2 245 43 63, fax: + 32 2 245 46 94, e-mail:
  1141.    esann@dice.ucl.ac.be 
  1142.  7. Artificial Neural Networks in Engineering (ANNIE) Anually
  1143.    since 1991 in St. Louis, Missouri; held in November. (Topics: NN
  1144.    architectures, pattern recognition, neuro-control,
  1145.    neuro-engineering systems. Contact: ANNIE; Engineering
  1146.    Management Department; 223 Engineering Management
  1147.    Building; University of Missouri-Rolla; Rolla, MO 65401; FAX:
  1148.    (314) 341-6567) 
  1149.  8. many many more.... 
  1150.  
  1151. B. Other Conferences
  1152. ++++++++++++++++++++
  1153.  
  1154.  1. International Joint Conference on Artificial Intelligence (IJCAI) 
  1155.  2. Intern. Conf. on Acustics, Speech and Signal Processing
  1156.    (ICASSP) 
  1157.  3. Annual Conference of the Cognitive Science Society 
  1158.  4. [Vision Conferences?] 
  1159.  
  1160. C. Pointers to Conferences
  1161. ++++++++++++++++++++++++++
  1162.  
  1163.  1. The journal "Neural Networks" has a list of conferences,
  1164.    workshops and meetings in each issue. This is quite
  1165.    interdisciplinary. 
  1166.  2. There is a regular posting on comp.ai.neural-nets from Paultje
  1167.    Bakker: "Upcoming Neural Network Conferences", which lists
  1168.    names, dates, locations, contacts, and deadlines. It is also available
  1169.    for anonymous ftp from ftp.cs.uq.oz.au as /pub/pdp/conferences 
  1170.  
  1171. ------------------------------------------------------------------------
  1172.  
  1173. o A: Neural Network Associations?
  1174. o ===============================
  1175.  
  1176.  1. International Neural Network Society (INNS).
  1177.  +++++++++++++++++++++++++++++++++++++++++++++++
  1178.  
  1179.    INNS membership includes subscription to "Neural Networks",
  1180.    the official journal of the society. Membership is $55 for
  1181.    non-students and $45 for students per year. Address: INNS
  1182.    Membership, P.O. Box 491166, Ft. Washington, MD 20749. 
  1183.  
  1184.  2. International Student Society for Neural Networks (ISSNNets).
  1185.  ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  1186.  
  1187.    Membership is $5 per year. Address: ISSNNet, Inc., P.O. Box
  1188.    15661, Boston, MA 02215 USA 
  1189.  
  1190.  3. Women In Neural Network Research and technology
  1191.  ++++++++++++++++++++++++++++++++++++++++++++++++++
  1192.    (WINNERS).
  1193.    ++++++++++
  1194.  
  1195.    Address: WINNERS, c/o Judith Dayhoff, 11141 Georgia Ave.,
  1196.    Suite 206, Wheaton, MD 20902. Phone: 301-933-9000. 
  1197.  
  1198.  4. European Neural Network Society (ENNS)
  1199.  +++++++++++++++++++++++++++++++++++++++++
  1200.  
  1201.    ENNS membership includes subscription to "Neural Networks",
  1202.    the official journal of the society. Membership is currently (1994)
  1203.    50 UK pounds (35 UK pounds for students) per year. Address:
  1204.    ENNS Membership, Centre for Neural Networks, King's College
  1205.    London, Strand, London WC2R 2LS, United Kingdom. 
  1206.  
  1207.  5. Japanese Neural Network Society (JNNS)
  1208.  +++++++++++++++++++++++++++++++++++++++++
  1209.  
  1210.    Address: Japanese Neural Network Society; Department of
  1211.    Engineering, Tamagawa University; 6-1-1, Tamagawa Gakuen,
  1212.    Machida City, Tokyo; 194 JAPAN; Phone: +81 427 28 3457, Fax:
  1213.    +81 427 28 3597 
  1214.  
  1215.  6. Association des Connexionnistes en THese (ACTH)
  1216.  ++++++++++++++++++++++++++++++++++++++++++++++++++
  1217.  
  1218.    (the French Student Association for Neural Networks);
  1219.    Membership is 100 FF per year; Activities : newsletter, conference
  1220.    (every year), list of members, electronic forum; Journal 'Valgo'
  1221.    (ISSN 1243-4825); Contact : acth@loria.fr 
  1222.  
  1223.  7. Neurosciences et Sciences de l'Ingenieur (NSI)
  1224.  +++++++++++++++++++++++++++++++++++++++++++++++++
  1225.  
  1226.    Biology & Computer Science Activity : conference (every year)
  1227.    Address : NSI - TIRF / INPG 46 avenue Felix Viallet 38031
  1228.    Grenoble Cedex FRANCE 
  1229.  
  1230. ------------------------------------------------------------------------
  1231.  
  1232. o A: Other sources of information about NNs?
  1233. o ==========================================
  1234.  
  1235.  1. Neuron Digest
  1236.  ++++++++++++++++
  1237.  
  1238.    Internet Mailing List. From the welcome blurb: "Neuron-Digest
  1239.    is a list (in digest form) dealing with all aspects of neural
  1240.    networks (and any type of network or neuromorphic system)" To
  1241.    subscribe, send email to neuron-request@cattell.psych.upenn.edu
  1242.    comp.ai.neural-net readers also find the messages in that
  1243.    newsgroup in the form of digests. 
  1244.  
  1245.  2. Usenet groups comp.ai.neural-nets (Oha!) and
  1246.  +++++++++++++++++++++++++++++++++++++++++++++++
  1247.    comp.theory.self-org-sys.
  1248.    +++++++++++++++++++++++++
  1249.  
  1250.    There is a periodic posting on comp.ai.neural-nets sent by
  1251.    srctran@world.std.com (Gregory Aharonian) about Neural
  1252.    Network patents. 
  1253.  
  1254.  3. Central Neural System Electronic Bulletin Board
  1255.  ++++++++++++++++++++++++++++++++++++++++++++++++++
  1256.  
  1257.    Modem: 409-589-3338; Sysop: Wesley R. Elsberry; P.O. Box
  1258.    4201, College Station, TX 77843; welsberr@orca.tamu.edu Many
  1259.    MS-DOS PD and shareware simulations, source code,
  1260.    benchmarks, demonstration packages, information files; some
  1261.    Unix, Macintosh, Amiga related files. Also available are files on
  1262.    AI, AI Expert listings 1986-1991, fuzzy logic, genetic algorithms,
  1263.    artificial life, evolutionary biology, and many Project Gutenberg
  1264.    and Wiretap etexts. No user fees have ever been charged. Home of
  1265.    the NEURAL_NET Echo, available thrugh FidoNet, RBBS-Net,
  1266.    and other EchoMail compatible bulletin board systems. 
  1267.  
  1268.  4. Neural ftp archive site ftp.funet.fi
  1269.  +++++++++++++++++++++++++++++++++++++++
  1270.  
  1271.    Is administrating a large collection of neural network papers and
  1272.    software at the Finnish University Network file archive site
  1273.    ftp.funet.fi in directory /pub/sci/neural Contains all the public
  1274.    domain software and papers that they have been able to find. All
  1275.    of these files have been transferred from FTP sites in U.S. and are
  1276.    mirrored about every 3 months at fastest. Contact:
  1277.    neural-adm@ftp.funet.fi 
  1278.  
  1279.  5. USENET newsgroup comp.org.issnnet
  1280.  ++++++++++++++++++++++++++++++++++++
  1281.  
  1282.    Forum for discussion of academic/student-related issues in NNs,
  1283.    as well as information on ISSNNet (see answer 12) and its
  1284.    activities. 
  1285.  
  1286.  6. AI CD-ROM
  1287.  ++++++++++++
  1288.  
  1289.    Network Cybernetics Corporation produces the "AI CD-ROM". It
  1290.    is an ISO-9660 format CD-ROM and contains a large
  1291.    assortment of software related to artificial intelligence, artificial
  1292.    life, virtual reality, and other topics. Programs for OS/2,
  1293.    MS-DOS, Macintosh, UNIX, and other operating systems are
  1294.    included. Research papers, tutorials, and other text files are
  1295.    included in ASCII, RTF, and other universal formats. The files
  1296.    have been collected from AI bulletin boards, Internet archive sites,
  1297.    University computer deptartments, and other government and
  1298.    civilian AI research organizations. Network Cybernetics
  1299.    Corporation intends to release annual revisions to the AI
  1300.    CD-ROM to keep it up to date with current developments in the
  1301.    field. The AI CD-ROM includes collections of files that address
  1302.    many specific AI/AL topics including Neural Networks (Source
  1303.    code and executables for many different platforms including Unix,
  1304.    DOS, and Macintosh. ANN development tools, example networks,
  1305.    sample data, tutorials. A complete collection of Neural Digest is
  1306.    included as well.) The AI CD-ROM may be ordered directly by
  1307.    check, money order, bank draft, or credit card from: Network
  1308.    Cybernetics Corporation; 4201 Wingren Road Suite 202; Irving,
  1309.    TX 75062-2763; Tel 214/650-2002; Fax 214/650-1929; The cost
  1310.    is $129 per disc + shipping ($5/disc domestic or $10/disc foreign)
  1311.    (See the comp.ai FAQ for further details) 
  1312.  
  1313.  7. World Wide Web
  1314.  +++++++++++++++++
  1315.  
  1316.    In World-Wide-Web (WWW, for example via the xmosaic
  1317.    program) you can read neural network information by opening
  1318.    one of the following universal resource locators (URLs): 
  1319.    http://www.neuronet.ph.kcl.ac.uk (NEuroNet, King's College,
  1320.    London), http://www.eeb.ele.tue.nl (Eindhoven, Netherlands), 
  1321.    http://www.msrc.pnl.gov:2080/docs/cie/neural/neural.homepage.html
  1322.    (Richland, Washington), 
  1323.    http://www.cosy.sbg.ac.at/~rschwaig/rschwaig/projects.html
  1324.    (Salzburg, Austria), 
  1325.    http://http2.sils.umich.edu/Public/nirg/nirg1.html (Michigan). 
  1326.  
  1327.  8. Neurosciences Internet Resource Guide
  1328.  ++++++++++++++++++++++++++++++++++++++++
  1329.  
  1330.    This document aims to be a guide to existing, free,
  1331.    Internet-accessible resources helpful to neuroscientists of all
  1332.    stripes. An ASCII text version (86K) is available in the
  1333.    Clearinghouse of Subject-Oriented Internet Resource Guides as
  1334.    follows:
  1335.  
  1336.    anonymous FTP, Gopher, WWW Hypertext 
  1337.  
  1338.  9. INTCON mailing list
  1339.  ++++++++++++++++++++++
  1340.  
  1341.    INTCON (Intelligent Control) is a moderated mailing list set up
  1342.    to provide a forum for communication and exchange of ideas
  1343.    among researchers in neuro-control, fuzzy logic control,
  1344.    reinforcement learning and other related subjects grouped under
  1345.    the topic of intelligent control. Send your subscribe requests to 
  1346.    intcon-request@phoenix.ee.unsw.edu.au 
  1347.  
  1348. ------------------------------------------------------------------------
  1349.  
  1350. o A: Freely available software packages for NN
  1351. o ============================================
  1352. simulation?
  1353. ===========
  1354.  
  1355.  1. Rochester Connectionist Simulator
  1356.  ++++++++++++++++++++++++++++++++++++
  1357.  
  1358.    A quite versatile simulator program for arbitrary types of neural
  1359.    nets. Comes with a backprop package and a X11/Sunview
  1360.    interface. Available via anonymous FTP from cs.rochester.edu
  1361.    [192.5.53.209] in directory pub/simulator as the files README (8
  1362.    KB), rcs_v4.2.justdoc.tar.Z (1.6 MB, Documentation), 
  1363.    rcs_v4.2.justsrc.tar.Z (1.4 MB, Source code), 
  1364.  
  1365.  2. UCLA-SFINX
  1366.  +++++++++++++
  1367.  
  1368.    ftp retina.cs.ucla.edu [131.179.16.6]; Login name: sfinxftp;
  1369.    Password: joshua; directory: pub; files : README;
  1370.    sfinx_v2.0.tar.Z; Email info request : sfinx@retina.cs.ucla.edu 
  1371.  
  1372.  3. NeurDS
  1373.  +++++++++
  1374.  
  1375.    simulator for DEC systems supporting VT100 terminal. available
  1376.    for anonymous ftp from gatekeeper.dec.com [16.1.0.2] in directory:
  1377.    pub/DEC as the file NeurDS031.tar.Z (111 Kb) 
  1378.  
  1379.  4. PlaNet5.7 (formerly known as SunNet)
  1380.  +++++++++++++++++++++++++++++++++++++++
  1381.  
  1382.    A popular connectionist simulator with versions to run under X
  1383.    Windows, and non-graphics terminals created by Yoshiro Miyata
  1384.    (Chukyo Univ., Japan). 60-page User's Guide in Postscript. Send
  1385.    any questions to miyata@sccs.chukyo-u.ac.jp Available for
  1386.    anonymous ftp from ftp.ira.uka.de as /pub/neuron/PlaNet5.7.tar.Z
  1387.    (800 kb) or from boulder.colorado.edu [128.138.240.1] as 
  1388.    /pub/generic-sources/PlaNet5.7.tar.Z 
  1389.  
  1390.  5. GENESIS
  1391.  ++++++++++
  1392.  
  1393.    GENESIS 1.4.1 (GEneral NEural SImulation System) is a general
  1394.    purpose simulation platform which was developed to support the
  1395.    simulation of neural systems ranging from complex models of
  1396.    single neurons to simulations of large networks made up of more
  1397.    abstract neuronal components. Most current GENESIS
  1398.    applications involve realistic simulations of biological neural
  1399.    systems. Although the software can also model more abstract
  1400.    networks, other simulators are more suitable for backpropagation
  1401.    and similar connectionist modeling. Available for ftp from
  1402.    genesis.cns.caltech.edu [131.215.137.64]. Use 'telnet' to
  1403.    genesis.cns.caltech.edu beforehands and login as the user "genesis"
  1404.    (no password required). If you answer all the questions asked of
  1405.    you an 'ftp' account will automatically be created for you. You
  1406.    can then 'ftp' back to the machine and download the software (ca.
  1407.    3 MB). Contact: genesis@cns.caltech.edu. 
  1408.  
  1409.  6. Mactivation
  1410.  ++++++++++++++
  1411.  
  1412.    A neural network simulator for the Apple Macintosh. Available
  1413.    for ftp from ftp.cs.colorado.edu [128.138.243.151] as 
  1414.    /pub/cs/misc/Mactivation-3.3.sea.hqx 
  1415.  
  1416.  7. Cascade Correlation Simulator
  1417.  ++++++++++++++++++++++++++++++++
  1418.  
  1419.    A simulator for Scott Fahlman's Cascade Correlation algorithm.
  1420.    Available for ftp from ftp.cs.cmu.edu [128.2.206.173] in directory
  1421.    /afs/cs/project/connect/code as the file cascor-v1.0.4.shar (218 KB)
  1422.    There is also a version of recurrent cascade correlation in the
  1423.    same directory in file rcc1.c (108 KB). 
  1424.  
  1425.  8. Quickprop
  1426.  ++++++++++++
  1427.  
  1428.    A variation of the back-propagation algorithm developed by Scott
  1429.    Fahlman. A simulator is available in the same directory as the
  1430.    cascade correlation simulator above in file nevprop1.16.shar (137
  1431.    KB) (see also the description of NEVPROP below) 
  1432.  
  1433.  9. DartNet
  1434.  ++++++++++
  1435.  
  1436.    DartNet is a Macintosh-based backpropagation simulator,
  1437.    developed at Dartmouth by Jamshed Bharucha and Sean Nolan as
  1438.    a pedagogical tool. It makes use of the Mac's graphical interface,
  1439.    and provides a number of tools for building, editing, training,
  1440.    testing and examining networks. This program is available by
  1441.    anonymous ftp from dartvax.dartmouth.edu [129.170.16.4] as 
  1442.    /pub/mac/dartnet.sit.hqx (124 KB). 
  1443.  
  1444.  10. SNNS
  1445.  ++++++++
  1446.  
  1447.    "Stuttgart Neural Network Simulator" from the University of
  1448.    Stuttgart, Germany. A luxurious simulator for many types of nets;
  1449.    with X11 interface: Graphical 2D and 3D topology
  1450.    editor/visualizer, training visualisation, multiple pattern set
  1451.    handling etc. Currently supports backpropagation (vanilla, online,
  1452.    with momentum term and flat spot elimination, batch, time
  1453.    delay), counterpropagation, quickprop, backpercolation 1,
  1454.    generalized radial basis functions (RBF), RProp, ART1, ART2,
  1455.    ARTMAP, Cascade Correlation, Recurrent Cascade Correlation,
  1456.    Dynamic LVQ, Backpropagation through time (for recurrent
  1457.    networks), batch backpropagation through time (for recurrent
  1458.    networks), Quickpropagation through time (for recurrent
  1459.    networks), Hopfield networks, Jordan and Elman networks,
  1460.    autoassociative memory, self-organizing maps, time-delay
  1461.    networks (TDNN), and is user-extendable (user-defined
  1462.    activation functions, output functions, site functions, learning
  1463.    procedures). Works on SunOS, Solaris, IRIX, Ultrix, AIX,
  1464.    HP/UX, and Linux. Available for ftp from
  1465.    ftp.informatik.uni-stuttgart.de [129.69.211.2] in directory
  1466.    /pub/SNNS as SNNSv3.2.tar.Z (2 MB, Source code) and 
  1467.    SNNSv3.2.Manual.ps.Z (1.4 MB, Documentation). There are also
  1468.    various other files in this directory (e.g. the source version of the
  1469.    manual, a Sun Sparc executable, older versions of the software,
  1470.    some papers, and the software in several smaller parts). It may be
  1471.    best to first have a look at the file SNNSv3.2.Readme (10 kb).
  1472.    This file contains a somewhat more elaborate short description of
  1473.    the simulator. 
  1474.  
  1475.  11. Aspirin/MIGRAINES
  1476.  +++++++++++++++++++++
  1477.  
  1478.    Aspirin/MIGRAINES 6.0 consists of a code generator that builds
  1479.    neural network simulations by reading a network description
  1480.    (written in a language called "Aspirin") and generates a C
  1481.    simulation. An interface (called "MIGRAINES") is provided to
  1482.    export data from the neural network to visualization tools. The
  1483.    system has been ported to a large number of platforms. The goal
  1484.    of Aspirin is to provide a common extendible front-end language
  1485.    and parser for different network paradigms. The MIGRAINES
  1486.    interface is a terminal based interface that allows you to open
  1487.    Unix pipes to data in the neural network. Users can display the
  1488.    data using either public or commercial graphics/analysis tools.
  1489.    Example filters are included that convert data exported through
  1490.    MIGRAINES to formats readable by Gnuplot 3.0, Matlab,
  1491.    Mathematica, and xgobi. The software is available from two FTP
  1492.    sites: from CMU's simulator collection on pt.cs.cmu.edu
  1493.    [128.2.254.155] in /afs/cs/project/connect/code/am6.tar.Z and from
  1494.    UCLA's cognitive science machine ftp.cognet.ucla.edu
  1495.    [128.97.50.19] in /pub/alexis/am6.tar.Z (2 MB). 
  1496.  
  1497.  12. Adaptive Logic Network kit
  1498.  ++++++++++++++++++++++++++++++
  1499.  
  1500.    This package differs from the traditional nets in that it uses logic
  1501.    functions rather than floating point; for many tasks, ALN's can
  1502.    show many orders of magnitude gain in training and performance
  1503.    speed. Anonymous ftp from menaik.cs.ualberta.ca [129.128.4.241]
  1504.    in directory /pub/atree. See the files README (7 KB), 
  1505.    atree2.tar.Z (145 kb, Unix source code and examples), atree2.ps.Z
  1506.    (76 kb, documentation), a27exe.exe (412 kb, MS-Windows 3.x
  1507.    executable), atre27.exe (572 kb, MS-Windows 3.x source code). 
  1508.  
  1509.  13. NeuralShell
  1510.  +++++++++++++++
  1511.  
  1512.    Formerly available from FTP site quanta.eng.ohio-state.edu
  1513.    [128.146.35.1] as /pub/NeuralShell/NeuralShell.tar". Currently not
  1514.    available and undergoing a major reconstruction (April 94). 
  1515.  
  1516.  14. PDP
  1517.  +++++++
  1518.  
  1519.    The PDP simulator package is available via anonymous FTP at
  1520.    nic.funet.fi [128.214.6.100] as /pub/sci/neural/sims/pdp.tar.Z (202
  1521.    kb). The simulator is also available with the book "Explorations in
  1522.    Parallel Distributed Processing: A Handbook of Models, Programs,
  1523.    and Exercises" by McClelland and Rumelhart. MIT Press, 1988.
  1524.    Comment: "This book is often referred to as PDP vol III which is
  1525.    a very misleading practice! The book comes with software on an
  1526.    IBM disk but includes a makefile for compiling on UNIX systems.
  1527.    The version of PDP available at ftp.funet.fi seems identical to the
  1528.    one with the book except for a bug in bp.c which occurs when you
  1529.    try to run a script of PDP commands using the DO command.
  1530.    This can be found and fixed easily." 
  1531.  
  1532.  15. Xerion
  1533.  ++++++++++
  1534.  
  1535.    Xerion runs on SGI and Sun machines and uses X Windows for
  1536.    graphics. The software contains modules that implement Back
  1537.    Propagation, Recurrent Back Propagation, Boltzmann Machine,
  1538.    Mean Field Theory, Free Energy Manipulation, Hard and Soft
  1539.    Competitive Learning, and Kohonen Networks. Sample networks
  1540.    built for each of the modules are also included. Contact:
  1541.    xerion@ai.toronto.edu. Xerion is available via anonymous ftp
  1542.    from ftp.cs.toronto.edu [128.100.1.105] in directory /pub/xerion as 
  1543.    xerion-3.1.ps.Z (153 kB) and xerion-3.1.tar.Z (1.3 MB) plus
  1544.    several concrete simulators built with xerion (about 40 kB each). 
  1545.  
  1546.  16. Neocognitron simulator
  1547.  ++++++++++++++++++++++++++
  1548.  
  1549.    The simulator is written in C and comes with a list of references
  1550.    which are necessary to read to understand the specifics of the
  1551.    implementation. The unsupervised version is coded without (!)
  1552.    C-cell inhibition. Available for anonymous ftp from
  1553.    unix.hensa.ac.uk [129.12.21.7] in /pub/neocognitron.tar.Z (130 kB).
  1554.  
  1555.  17. Multi-Module Neural Computing Environment (MUME)
  1556.  ++++++++++++++++++++++++++++++++++++++++++++++++++++
  1557.  
  1558.    MUME is a simulation environment for multi-modules neural
  1559.    computing. It provides an object oriented facility for the
  1560.    simulation and training of multiple nets with various architectures
  1561.    and learning algorithms. MUME includes a library of network
  1562.    architectures including feedforward, simple recurrent, and
  1563.    continuously running recurrent neural networks. Each
  1564.    architecture is supported by a variety of learning algorithms.
  1565.    MUME can be used for large scale neural network simulations as
  1566.    it provides support for learning in multi-net environments. It also
  1567.    provide pre- and post-processing facilities. The modules are
  1568.    provided in a library. Several "front-ends" or clients are also
  1569.    available. X-Window support by editor/visualization tool Xmume.
  1570.    MUME can be used to include non-neural computing modules
  1571.    (decision trees, ...) in applications. MUME is available anonymous
  1572.    ftp on mickey.sedal.su.oz.au [129.78.24.170] after signing and
  1573.    sending a licence: /pub/license.ps (67 kb). Contact: Marwan Jabri,
  1574.    SEDAL, Sydney University Electrical Engineering, NSW 2006
  1575.    Australia, marwan@sedal.su.oz.au 
  1576.  
  1577.  18. LVQ_PAK, SOM_PAK
  1578.  ++++++++++++++++++++
  1579.  
  1580.    These are packages for Learning Vector Quantization and
  1581.    Self-Organizing Maps, respectively. They have been built by the
  1582.    LVQ/SOM Programming Team of the Helsinki University of
  1583.    Technology, Laboratory of Computer and Information Science,
  1584.    Rakentajanaukio 2 C, SF-02150 Espoo, FINLAND There are
  1585.    versions for Unix and MS-DOS available from cochlea.hut.fi
  1586.    [130.233.168.48] as /pub/lvq_pak/lvq_pak-2.1.tar.Z (340 kB, Unix
  1587.    sources), /pub/lvq_pak/lvq_p2r1.exe (310 kB, MS-DOS
  1588.    self-extract archive), /pub/som_pak/som_pak-1.2.tar.Z (251 kB,
  1589.    Unix sources), /pub/som_pak/som_p1r2.exe (215 kB, MS-DOS
  1590.    self-extract archive). (further programs to be used with
  1591.    SOM_PAK and LVQ_PAK can be found in /pub/utils). 
  1592.  
  1593.  19. SESAME
  1594.  ++++++++++
  1595.  
  1596.    ("Software Environment for the Simulation of Adaptive Modular
  1597.    Systems") SESAME is a prototypical software implementation
  1598.    which facilitates 
  1599.     o Object-oriented building blocks approach. 
  1600.     o Contains a large set of C++ classes useful for neural nets,
  1601.       neurocontrol and pattern recognition. No C++ classes can
  1602.       be used as stand alone, though! 
  1603.     o C++ classes include CartPole, nondynamic two-robot
  1604.       arms, Lunar Lander, Backpropagation, Feature Maps,
  1605.       Radial Basis Functions, TimeWindows, Fuzzy Set Coding,
  1606.       Potential Fields, Pandemonium, and diverse utility building
  1607.       blocks. 
  1608.     o A kernel which is the framework for the C++ classes and
  1609.       allows run-time manipulation, construction, and
  1610.       integration of arbitrary complex and hybrid experiments. 
  1611.     o Currently no graphic interface for construction, only for
  1612.       visualization. 
  1613.     o Platform is SUN4, XWindows 
  1614.    Unfortunately no reasonable good introduction has been written
  1615.    until now. We hope to have something soon. For now we provide
  1616.    papers (eg. NIPS-92), a reference manual (>220 pages), source
  1617.    code (ca. 35.000 lines of code), and a SUN4-executable by ftp
  1618.    only. Sesame and its description is available in various files for
  1619.    anonymous ftp on ftp ftp.gmd.de [129.26.8.90] in the directories 
  1620.    /gmd/as/sesame and /gmd/as/paper. Questions to
  1621.    sesame-request@gmd.de; there is only very limited support
  1622.    available. 
  1623.  
  1624.  20. Nevada Backpropagation (NevProp)
  1625.  ++++++++++++++++++++++++++++++++++++
  1626.  
  1627.    NevProp is a free, easy-to-use feedforward backpropagation
  1628.    (multilayer perceptron) program. It uses an interactive
  1629.    character-based interface, and is distributed as C source code that
  1630.    should compile and run on most platforms. (Precompiled
  1631.    executables are available for Macintosh and DOS.) The original
  1632.    version was Quickprop 1.0 by Scott Fahlman, as translated from
  1633.    Common Lisp by Terry Regier. We added early-stopped training
  1634.    based on a held-out subset of data, c index (ROC curve area)
  1635.    calculation, the ability to force gradient descent (per-epoch or
  1636.    per-pattern), and additional options. FEATURES (NevProp
  1637.    version 1.16): UNLIMITED (except by machine memory) number
  1638.    of input PATTERNS; UNLIMITED number of input, hidden, and
  1639.    output UNITS; Arbitrary CONNECTIONS among the various
  1640.    layers' units; Clock-time or user-specified RANDOM SEED for
  1641.    initial random weights; Choice of regular GRADIENT
  1642.    DESCENT or QUICKPROP; Choice of PER-EPOCH or
  1643.    PER-PATTERN (stochastic) weight updating;
  1644.    GENERALIZATION to a test dataset; AUTOMATICALLY
  1645.    STOPPED TRAINING based on generalization; RETENTION of
  1646.    best-generalizing weights and predictions; Simple but useful
  1647.    GRAPHIC display to show smoothness of generalization;
  1648.    SAVING of results to a file while working interactively; SAVING
  1649.    of weights file and reloading for continued training;
  1650.    PREDICTION-only on datasets by applying an existing weights
  1651.    file; In addition to RMS error, the concordance, or c index is
  1652.    displayed. The c index (area under the ROC curve) shows the
  1653.    correctness of the RELATIVE ordering of predictions AMONG
  1654.    the cases; ie, it is a measure of discriminative power of the model.
  1655.    AVAILABILITY: The most updated version of NevProp will be
  1656.    made available by anonymous ftp from the University of Nevada,
  1657.    Reno: On ftp.scs.unr.edu [134.197.10.130] in the directory
  1658.    "pub/goodman/nevpropdir", e.g. README.FIRST (45 kb) or 
  1659.    nevprop1.16.shar (138 kb). VERSION 2 to be released in Spring of
  1660.    1994 -- some of the new features: more flexible file formatting
  1661.    (including access to external data files; option to prerandomize
  1662.    data order; randomized stochastic gradient descent; option to
  1663.    rescale predictor (input) variables); linear output units as an
  1664.    alternative to sigmoidal units for use with continuous-valued
  1665.    dependent variables (output targets); cross-entropy (maximum
  1666.    likelihood) criterion function as an alternative to square error for
  1667.    use with categorical dependent variables
  1668.    (classification/symbolic/nominal targets); and interactive interrupt
  1669.    to change settings on-the-fly. Limited support is available from
  1670.    Phil Goodman (goodman@unr.edu), University of Nevada Center
  1671.    for Biomedical Research. 
  1672.  
  1673.  21. Fuzzy ARTmap
  1674.  ++++++++++++++++
  1675.  
  1676.    This is just a small example program. Available for anonymous ftp
  1677.    from park.bu.edu [128.176.121.56] /pub/fuzzy-artmap.tar.Z (44
  1678.    kB). 
  1679.  
  1680.  22. PYGMALION
  1681.  +++++++++++++
  1682.  
  1683.    This is a prototype that stems from an ESPRIT project. It
  1684.    implements back-propagation, self organising map, and Hopfield
  1685.    nets. Avaliable for ftp from ftp.funet.fi [128.214.248.6] as 
  1686.    /pub/sci/neural/sims/pygmalion.tar.Z (1534 kb). (Original site is
  1687.    imag.imag.fr: archive/pygmalion/pygmalion.tar.Z). 
  1688.  
  1689.  23. Basis-of-AI-backprop
  1690.  ++++++++++++++++++++++++
  1691.  
  1692.    Earlier versions have been posted in comp.sources.misc and people
  1693.    around the world have used them and liked them. This package is
  1694.    free for ordinary users but shareware for businesses and
  1695.    government agencies ($200/copy, but then for this you get the
  1696.    professional version as well). I do support this package via email.
  1697.    Some of the highlights are: 
  1698.     o in C for UNIX and DOS and DOS binaries 
  1699.     o gradient descent, delta-bar-delta and quickprop 
  1700.     o extra fast 16-bit fixed point weight version as well as a
  1701.       conventional floating point version 
  1702.     o recurrent networks 
  1703.     o numerous sample problems 
  1704.    Available for ftp from ftp.mcs.com in directory /mcsnet.users/drt.
  1705.    The expanded professional version is $30/copy for ordinary
  1706.    individuals including academics and $200/copy for businesses and
  1707.    government agencies (improved user interface, more activation
  1708.    functions, networks can be read into your own programs, dynamic
  1709.    node creation, weight decay, SuperSAB). More details can be
  1710.    found in the documentation for the student version. Contact: Don
  1711.    Tveter; 5228 N. Nashville Ave.; Chicago, Illinois 60656;
  1712.    drt@mcs.com 
  1713.  
  1714.  24. Matrix Backpropagation
  1715.  ++++++++++++++++++++++++++
  1716.  
  1717.    MBP (Matrix Back Propagation) is a very efficient
  1718.    implementation of the back-propagation algorithm for
  1719.    current-generation workstations. The algorithm includes a
  1720.    per-epoch adaptive technique for gradient descent. All the
  1721.    computations are done through matrix multiplications and make
  1722.    use of highly optimized C code. The goal is to reach almost
  1723.    peak-performances on RISCs with superscalar capabilities and
  1724.    fast caches. On some machines (and with large networks) a
  1725.    30-40x speed-up can be measured respect to conventional
  1726.    implementations. The software is available by anonymous ftp
  1727.    from risc6000.dibe.unige.it [130.251.89.154] as /pub/MBPv1.1.tar.Z
  1728.    (Unix version), /pub/MBPv11.zip.Z (MS-DOS version), 
  1729.    /pub/mpbv11.ps (Documentation). For more information, contact
  1730.    Davide Anguita or . 
  1731.  
  1732.  25. WinNN
  1733.  +++++++++
  1734.  
  1735.    WinNN is a shareware Neural Networks (NN) package for
  1736.    windows 3.1. WinNN incorporates a very user friendly interface
  1737.    with a powerful computational engine. WinNN is intended to be
  1738.    used as a tool for beginners and more advanced neural networks
  1739.    users, it provides an alternative to using more expensive and hard
  1740.    to use packages. WinNN can implement feed forward
  1741.    multi-layered NN and uses a modified fast back-propagation for
  1742.    training. Extensive on line help. Has various neuron functions.
  1743.    Allows on the fly testing of the network performance and
  1744.    generalization. All training parameters can be easily modified
  1745.    while WinNN is training. Results can be saved on disk or copied to
  1746.    the clipboard. Supports plotting of the outputs and weight
  1747.    distribution. Available for ftp from winftp.cica.indiana.edu as 
  1748.    /pub/pc/win3/programr/winnn093.zip (545 kB). 
  1749.  
  1750.  26. BIOSIM
  1751.  ++++++++++
  1752.  
  1753.    BIOSIM is a biologically oriented neural network simulator.
  1754.    Public domain, runs on Unix (less powerful PC-version is
  1755.    available, too), easy to install, bilingual (german and english), has
  1756.    a GUI (Graphical User Interface), designed for research and
  1757.    teaching, provides online help facilities, offers controlling
  1758.    interfaces, batch version is available, a DEMO is provided.
  1759.    REQUIREMENTS (Unix version): X11 Rel. 3 and above, Motif
  1760.    Rel 1.0 and above, 12 MB of physical memory, recommended are
  1761.    24 MB and more, 20 MB disc space. REQUIREMENTS (PC
  1762.    version): PC-compatible with MS Windows 3.0 and above, 4 MB
  1763.    of physical memory, recommended are 8 MB and more, 1 MB disc
  1764.    space. Four neuron models are implemented in BIOSIM: a simple
  1765.    model only switching ion channels on and off, the original
  1766.    Hodgkin-Huxley model, the SWIM model (a modified HH model)
  1767.    and the Golowasch-Buchholz model. Dendrites consist of a chain
  1768.    of segments without bifurcation. A neural network can be created
  1769.    by using the interactive network editor which is part of BIOSIM.
  1770.    Parameters can be changed via context sensitive menus and the
  1771.    results of the simulation can be visualized in observation windows
  1772.    for neurons and synapses. Stochastic processes such as noise can
  1773.    be included. In addition, biologically orientied learning and
  1774.    forgetting processes are modeled, e.g. sensitization, habituation,
  1775.    conditioning, hebbian learning and competitive learning. Three
  1776.    synaptic types are predefined (an excitatatory synapse type, an
  1777.    inhibitory synapse type and an electrical synapse). Additional
  1778.    synaptic types can be created interactively as desired. Available for
  1779.    ftp from ftp.uni-kl.de [131.246.9.95] in directory /pub/bio/neurobio:
  1780.    Get /pub/bio/neurobio/biosim.readme (2 kb) and 
  1781.    /pub/bio/neurobio/biosim.tar.Z (2.6 MB) for the Unix version or 
  1782.    /pub/bio/neurobio/biosimpc.readme (2 kb) and 
  1783.    /pub/bio/neurobio/biosimpc.zip (150 kb) for the PC version.
  1784.    Contact: Stefan Bergdoll; Department of Software Engineering
  1785.    (ZXA/US); BASF Inc.; D-67056 Ludwigshafen; Germany;
  1786.    bergdoll@zxa.basf-ag.de; phone 0621-60-21372; fax
  1787.    0621-60-43735 
  1788.  
  1789.  27. The Brain
  1790.  +++++++++++++
  1791.  
  1792.    The Brain is an advanced neural network simulator for PCs that
  1793.    is simple enough to be used by non-technical people, yet
  1794.    sophisticated enough for serious research work. It is based upon
  1795.    the backpropagation learning algorithm. Three sample networks
  1796.    are included. The documentation included provides you with an
  1797.    introduction and overview of the concepts and applications of
  1798.    neural networks as well as outlining the features and capabilities
  1799.    of The Brain. The Brain requires 512K memory and MS-DOS or
  1800.    PC-DOS version 3.20 or later (versions for other OS's and
  1801.    machines are available). A 386 (with maths coprocessor) or higher
  1802.    is recommended for serious use of The Brain. Shareware payment
  1803.    required. Demo version is restricted to number of units the
  1804.    network can handle due to memory contraints on PC's. Registered
  1805.    version allows use of extra memory. External documentation
  1806.    included: 39Kb, 20 Pages. Source included: No (Source comes
  1807.    with registration). Available via anonymous ftp from
  1808.    ftp.technion.ac.il [132.68.1.10] as 
  1809.    /pub/unsupported/dos/local/brain12.zip (78 kb) or from
  1810.    ftp.tu.clausthal.de [139.174.2.10] as /pub/msdos/misc/brain12.zip
  1811.    (78 kb) If you do not have access to anonymous ftp please contact
  1812.    me and I will try to email the program to you. Contact: David
  1813.    Perkovic; DP Computing; PO Box 712; Noarlunga Center SA
  1814.    5168; Australia; Email: dip@mod.dsto.gov.au (preferred) or
  1815.    dpc@mep.com or perkovic@cleese.apana.org.au 
  1816.  
  1817.  28. FuNeGen 1.0
  1818.  +++++++++++++++
  1819.  
  1820.    FuNeGen is a MLP based software program to generate fuzzy rule
  1821.    based classifiers. A limited version (maximum of 7 inputs and 3
  1822.    membership functions for each input) for PCs is available for
  1823.    anonymous ftp from
  1824.    obelix.microelectronic.e-technik.th-darmstadt.de in directory 
  1825.    /pub/neurofuzzy. For further information see the file read.me.
  1826.    Contact: Saman K. Halgamuge 
  1827.  
  1828.  29. NeuDL -- Neural-Network Description Language
  1829.  ++++++++++++++++++++++++++++++++++++++++++++++++
  1830.  
  1831.    NeuDL is a description language for the design, training, and
  1832.    operation of neural networks. It is currently limited to the
  1833.    backpropagation neural-network model; however, it offers a great
  1834.    deal of flexibility. For example, the user can explicitly specify the
  1835.    connections between nodes and can create or destroy connections
  1836.    dynamically as training progresses. NeuDL is an interpreted
  1837.    language resembling C or C++. It also has instructions dealing
  1838.    with training/testing set manipulation as well as neural network
  1839.    operation. A NeuDL program can be run in interpreted mode or it
  1840.    can be automatically translated into C++ which can be compiled
  1841.    and then executed. The NeuDL interpreter is written in C++ and
  1842.    can be easly extended with new instructions. NeuDL is available
  1843.    from the anonymous ftp site at The University of Alabama:
  1844.    cs.ua.edu (130.160.44.1) in the file /pub/neudl/NeuDLver021.tar.
  1845.    The tarred file contains the interpreter source code (in C++) a user
  1846.    manual, a paper about NeuDL, and about 25 sample NeuDL
  1847.    programs. A document demonstrating NeuDL's capabilities is also
  1848.    available from the ftp site: /pub/neudl/NeuDL/demo.doc 
  1849.    /pub/neudl/demo.doc. For more information contact the author:
  1850.    Joey Rogers (jrogers@buster.eng.ua.edu). 
  1851.  
  1852.  30. NeoC Explorer (Pattern Maker included)
  1853.  ++++++++++++++++++++++++++++++++++++++++++
  1854.  
  1855.    The NeoC software is an implementation of Fukushima's
  1856.    Neocognitron neural network. Its purpose is to test the model and
  1857.    to facilitate interactivity for the experiments. Some substantial
  1858.    features: GUI, explorer and tester operation modes, recognition
  1859.    statistics, performance analysis, elements displaying, easy net
  1860.    construction. PLUS, a pattern maker utility for testing ANN:
  1861.    GUI, text file output, transformations. Available for anonymous
  1862.    FTP from OAK.Oakland.Edu (141.210.10.117) as 
  1863.    /SimTel/msdos/neurlnet/neocog10.zip (193 kB, DOS version) 
  1864.  
  1865. For some of these simulators there are user mailing lists. Get the
  1866. packages and look into their documentation for further info.
  1867.  
  1868. If you are using a small computer (PC, Mac, etc.) you may want to have
  1869. a look at the Central Neural System Electronic Bulletin Board (see 
  1870. answer 13) Modem: 509-627-6CNS; Sysop: Wesley R. Elsberry; P.O.
  1871. Box 1187, Richland, WA 99352; welsberr@sandbox.kenn.wa.us. There
  1872. are lots of small simulator packages, the CNS ANNSIM file set. There is
  1873. an ftp mirror site for the CNS ANNSIM file set at me.uta.edu
  1874. [129.107.2.20] in the /pub/neural directory. Most ANN offerings are in 
  1875. /pub/neural/annsim. 
  1876.  
  1877. ------------------------------------------------------------------------
  1878.  
  1879. o A: Commercial software packages for NN
  1880. o ======================================
  1881. simulation?
  1882. ===========
  1883.  
  1884.  1. nn/xnn
  1885.  +++++++++
  1886.  
  1887.         Name: nn/xnn
  1888.      Company: Neureka ANS
  1889.      Address: Klaus Hansens vei 31B
  1890.               5037 Solheimsviken
  1891.               NORWAY
  1892.        Phone:   +47-55544163 / +47-55201548
  1893.        Email:   arnemo@eik.ii.uib.no
  1894.      Basic capabilities:
  1895.       Neural network development tool. nn is a language for specification of
  1896.       neural network simulators. Produces C-code and executables for the
  1897.       specified models, therefore ideal for application development. xnn is
  1898.       a graphical front-end to nn and the simulation code produced by nn.
  1899.       Gives graphical representations in a number of formats of any
  1900.       variables during simulation run-time. Comes with a number of
  1901.       pre-implemented models, including: Backprop (several variants), Self
  1902.       Organizing Maps, LVQ1, LVQ2, Radial Basis Function Networks,
  1903.       Generalized Regression Neural Networks, Jordan nets, Elman nets,
  1904.       Hopfield, etc.
  1905.      Operating system: nn: UNIX or MS-DOS, xnn: UNIX/X-windows
  1906.      System requirements: 10 Mb HD, 2 Mb RAM
  1907.      Approx. price: USD 2000,-
  1908.  
  1909.  2. BrainMaker
  1910.  +++++++++++++
  1911.  
  1912.            Name: BrainMaker, BrainMaker Pro
  1913.         Company: California Scientific Software
  1914.         Address: 10024 Newtown rd, Nevada City, CA, 95959 USA
  1915.       Phone,Fax: 916 478 9040, 916 478 9041
  1916.           Email:  calsci!mittmann@gvgpsa.gvg.tek.com (flakey connection)
  1917.      Basic capabilities:  train backprop neural nets
  1918.      Operating system:   DOS, Windows, Mac
  1919.      System requirements:
  1920.      Uses XMS or EMS for large models(PCs only): Pro version
  1921.      Approx. price:  $195, $795
  1922.  
  1923.      BrainMaker Pro 3.0 (DOS/Windows)     $795
  1924.          Gennetic Training add-on         $250
  1925.        ainMaker 3.0 (DOS/Windows/Mac)     $195
  1926.          Network Toolkit add-on           $150
  1927.      BrainMaker 2.5 Student version       (quantity sales only, about $38 each)
  1928.  
  1929.      BrainMaker Pro C30 Accelerator Board
  1930.                w/ 5Mb memory              $9750
  1931.                w/32Mb memory              $13,000
  1932.  
  1933.      Intel iNNTS NN Development System    $11,800
  1934.           Intel EMB Multi-Chip Board      $9750
  1935.           Intel 80170 chip set            $940
  1936.  
  1937.      Introduction To Neural Networks book $30
  1938.  
  1939.      California Scientific Software can be reached at:
  1940.      Phone: 916 478 9040     Fax: 916 478 9041    Tech Support: 916 478 9035
  1941.      Mail: 10024 newtown rd, Nevada City, CA, 95959, USA
  1942.      30 day money back guarantee, and unlimited free technical support.
  1943.      BrainMaker package includes:
  1944.       The book Introduction to Neural Networks
  1945.       BrainMaker Users Guide and reference manual
  1946.           300 pages , fully indexed, with tutorials, and sample networks
  1947.       Netmaker
  1948.           Netmaker makes building and training Neural Networks easy, by
  1949.           importing and automatically creating BrainMaker's Neural Network
  1950.           files.  Netmaker imports Lotus, Excel, dBase, and ASCII files.
  1951.       BrainMaker
  1952.           Full menu and dialog box interface, runs Backprop at 750,000 cps
  1953.           on a 33Mhz 486.
  1954.      ---Features ("P" means is avaliable in professional version only):
  1955.      Pull-down Menus, Dialog Boxes, Programmable Output Files,
  1956.      Editing in BrainMaker,  Network Progress Display (P),
  1957.      Fact Annotation,  supports many printers,  NetPlotter,
  1958.      Graphics Built In (P),  Dynamic Data Exchange (P),
  1959.      Binary Data Mode, Batch Use Mode (P), EMS and XMS Memory (P),
  1960.      Save Network Periodically,  Fastest Algorithms,
  1961.      512 Neurons per Layer (P: 32,000), up to 8 layers,
  1962.      Specify Parameters by Layer (P), Recurrence Networks (P),
  1963.      Prune Connections and Neurons (P),  Add Hidden Neurons In Training,
  1964.      Custom Neuron Functions,  Testing While Training,
  1965.      Stop training when...-function (P),  Heavy Weights (P),
  1966.      Hypersonic Training,  Sensitivity Analysis (P),  Neuron Sensitivity (P),
  1967.      Global Network Analysis (P),  Contour Analysis (P),
  1968.      Data Correlator (P),  Error Statistics Report,
  1969.      Print or Edit Weight Matrices,  Competitor (P), Run Time System (P),
  1970.      Chip Support for Intel, American Neurologics, Micro Devices,
  1971.      Genetic Training Option (P),  NetMaker,  NetChecker,
  1972.      Shuffle,  Data Import from Lotus, dBASE, Excel, ASCII, binary,
  1973.      Finacial Data (P),  Data Manipulation,  Cyclic Analysis (P),
  1974.      User's Guide quick start booklet,
  1975.      Introduction to Neural Networks 324 pp book
  1976.  
  1977.  3. SAS Software/ Neural Net add-on
  1978.  ++++++++++++++++++++++++++++++++++
  1979.  
  1980.           Name: SAS Software
  1981.        Company: SAS Institute, Inc.
  1982.        Address: SAS Campus Drive, Cary, NC 27513, USA
  1983.      Phone,Fax: (919) 677-8000
  1984.          Email: saswss@unx.sas.com (Neural net inquiries only)
  1985.  
  1986.     Basic capabilities:
  1987.       Feedforward nets with numerous training methods
  1988.       and loss functions, plus statistical analogs of
  1989.       counterpropagation and various unsupervised
  1990.       architectures
  1991.     Operating system: Lots
  1992.     System requirements: Lots
  1993.     Uses XMS or EMS for large models(PCs only): Runs under Windows, OS/2
  1994.     Approx. price: Free neural net software, but you have to license
  1995.                    SAS/Base software and preferably the SAS/OR, SAS/ETS,
  1996.                    and/or SAS/STAT products.
  1997.     Comments: Oriented toward data analysis and statistical applications
  1998.  
  1999.  4. NeuralWorks
  2000.  ++++++++++++++
  2001.  
  2002.         Name: NeuralWorks Professional II Plus (from NeuralWare)
  2003.      Company: NeuralWare Inc.
  2004.       Adress: Pittsburgh, PA 15276-9910
  2005.        Phone: (412) 787-8222
  2006.          FAX: (412) 787-8220
  2007.  
  2008.     Distributor for Europe: 
  2009.       Scientific Computers GmbH.
  2010.       Franzstr. 107, 52064 Aachen
  2011.       Germany
  2012.       Tel.   (49) +241-26041
  2013.       Fax.   (49) +241-44983
  2014.       Email. info@scientific.de
  2015.  
  2016.     Basic capabilities:
  2017.       supports over 30 different nets: backprop, art-1,kohonen, 
  2018.       modular neural network, General regression, Fuzzy art-map,
  2019.       probabilistic nets, self-organizing map, lvq, boltmann,
  2020.       bsb, spr, etc...
  2021.       Extendable with optional package. 
  2022.       ExplainNet, Flashcode (compiles net in .c code for runtime),
  2023.       user-defined io in c possible. ExplainNet (to eliminate 
  2024.       extra inputs), pruning, savebest,graph.instruments like 
  2025.       correlation, hinton diagrams, rms error graphs etc..
  2026.     Operating system   : PC,Sun,IBM RS6000,Apple Macintosh,SGI,Dec,HP.
  2027.     System requirements: varies. PC:2MB extended memory+6MB Harddisk space.
  2028.                          Uses windows compatible memory driver (extended).
  2029.                          Uses extended memory.
  2030.     Approx. price      : call (depends on platform)
  2031.     Comments           : award winning documentation, one of the market
  2032.                          leaders in NN software.
  2033.  
  2034.  5. MATLAB Neural Network Toolbox (for use with Matlab 4.x)
  2035.  ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  2036.  
  2037.       Contact: The MathWorks, Inc.     Phone: 508-653-1415
  2038.                24 Prime Park Way       FAX: 508-653-2997
  2039.                Natick, MA 01760 email: info@mathworks.com
  2040.  
  2041.    The Neural Network Toolbox is a powerful collection of
  2042.    MATLAB functions for the design, training, and simulation of
  2043.    neural networks. It supports a wide range of network architectures
  2044.    with an unlimited number of processing elements and
  2045.    interconnections (up to operating system constraints). Supported
  2046.    architectures and training methods include: supervised training of
  2047.    feedforward networks using the perceptron learning rule,
  2048.    Widrow-Hoff rule, several variations on backpropagation
  2049.    (including the fast Levenberg-Marquardt algorithm), and radial
  2050.    basis networks; supervised training of recurrent Elman networks;
  2051.    unsupervised training of associative networks including
  2052.    competitive and feature map layers; Kohonen networks,
  2053.    self-organizing maps, and learning vector quantization. The
  2054.    Neural Network Toolbox contains a textbook-quality Users'
  2055.    Guide, uses tutorials, reference materials and sample applications
  2056.    with code examples to explain the design and use of each network
  2057.    architecture and paradigm. The Toolbox is delivered as MATLAB
  2058.    M-files, enabling users to see the algorithms and implementations,
  2059.    as well as to make changes or create new functions to address a
  2060.    specific application.
  2061.  
  2062.    (Comment by Richard Andrew Miles Outerbridge,
  2063.    RAMO@UVPHYS.PHYS.UVIC.CA:) Matlab is spreading like
  2064.    hotcakes (and the educational discounts are very impressive). The
  2065.    newest release of Matlab (4.0) ansrwers the question "if you could
  2066.    only program in one language what would it be?". The neural
  2067.    network toolkit is worth getting for the manual alone. Matlab is
  2068.    available with lots of other toolkits (signal processing,
  2069.    optimization, etc.) but I don't use them much - the main package
  2070.    is more than enough. The nice thing about the Matlab approach is
  2071.    that you can easily interface the neural network stuff with
  2072.    anything else you are doing. 
  2073.  
  2074.  6. Propagator
  2075.  +++++++++++++
  2076.  
  2077.      Contact: ARD Corporation,
  2078.               9151 Rumsey Road, Columbia, MD  21045, USA
  2079.               propagator@ard.com
  2080.      Easy to use neural network training package.  A GUI implementation of
  2081.      backpropagation networks with five layers (32,000 nodes per layer).
  2082.      Features dynamic performance graphs, training with a validation set,
  2083.      and C/C++ source code generation.
  2084.      For Sun (Solaris 1.x & 2.x, $499),
  2085.          PC  (Windows 3.x, $199)
  2086.          Mac (System 7.x, $199)
  2087.      Floating point coprocessor required, Educational Discount,
  2088.      Money Back Guarantee, Muliti User Discount
  2089.      Windows Demo on:
  2090.        nic.funet.fi        /pub/msdos/windows/demo
  2091.        oak.oakland.edu     /pub/msdos/neural_nets
  2092.            gatordem.zip    pkzip 2.04g archive file
  2093.            gatordem.txt    readme text file
  2094.  
  2095.  7. NeuroForecaster
  2096.  ++++++++++++++++++
  2097.  
  2098.       Name:    NeuroForecaster(TM)/Genetica 3.1
  2099.       Contact: Accel Infotech (S) Pte Ltd; 648 Geylang Road;
  2100.                Republic of Singapore 1438; Phone: +65-7446863; Fax: +65-7492467
  2101.                accel@solomon.technet.sg
  2102.       For IBM PC 386/486 with mouse, or compatibles MS Windows* 3.1,
  2103.       MS DOS 5.0 or above 4 MB RAM, 5 MB available harddisk space min;
  2104.       3.5 inch floppy drive, VGA monitor or above, Math coprocessor recommended.
  2105.         Neuroforecaster 3.1 for Windows is priced at US$999 per single user
  2106.       license.  Please email us (accel@solomon.technet.sg) for order form. 
  2107.         More information about NeuroForecaster(TM)/Genetical may be found in 
  2108.       ftp.nus.sg incoming/accel.
  2109.         NeuroForecaster is a user-friendly neural network program specifically
  2110.       designed for building sophisticated and powerful forecasting and
  2111.       decision-support systems (Time-Series Forecasting, Cross-Sectional
  2112.       Classification, Indicator Analysis)
  2113.       Features:
  2114.       * GENETICA Net Builder Option for automatic network optimization
  2115.       * 12 Neuro-Fuzzy Network Models      
  2116.       * Multitasking & Background Training Mode            
  2117.       * Unlimited Network Capacity         
  2118.       * Rescaled Range Analysis & Hurst Exponent to Unveil Hidden Market
  2119.         Cycles & Check for Predictability  
  2120.       * Correlation Analysis to Compute Correlation Factors to Analyze the 
  2121.         Significance of Indicators                 
  2122.       * Weight Histogram to Monitor the Progress of Learning
  2123.       * Accumulated Error Analysis to Analyze the Strength of Input Indicators     
  2124.       Its user-friendly interface allows the users to build applications quickly, 
  2125.       easily and interactively, analyze the data visually and see the results 
  2126.       immediately.  
  2127.       The following example applications are included in the package:
  2128.       * Credit Rating - for generating the credit rating of bank loan
  2129.         applications.
  2130.       * Stock market 6 monthly returns forecast
  2131.       * Stock selection based on company ratios
  2132.       * US$ to Deutschmark exchange rate forecast
  2133.       * US$ to Yen exchange rate forecast
  2134.       * US$ to SGD exchange rate forecast
  2135.       * Property price valuation
  2136.       * XOR - a classical problem to show the results are better than others
  2137.       * Chaos - Prediction of Mackey-Glass chaotic time series
  2138.       * SineWave - For demonstrating the power of Rescaled Range Analysis and
  2139.         significance of window size
  2140.       Techniques Implemented:
  2141.       * GENETICA Net Builder Option - network creation & optimization based on
  2142.         Darwinian evolution theory
  2143.       * Backprop Neural Networks - the most widely-used training algorithm
  2144.       * Fastprop Neural Networks - speeds up training of large problems
  2145.       * Radial Basis Function Networks - best for pattern classification problems
  2146.       * Neuro-Fuzzy Network
  2147.       * Rescaled Range Analysis - computes Hurst exponents to unveil hidden
  2148.         cycles & check for predictability
  2149.       * Correlation Analysis - to identify significant input indicators
  2150.  
  2151.  8. Products of NESTOR, Inc.
  2152.  +++++++++++++++++++++++++++
  2153.  
  2154.    530 Fifth Avenue; New York, NY 10036; USA; Tel.:
  2155.    001-212-398-7955
  2156.  
  2157.    Founders: Dr. Leon Cooper (having a Nobel Price) and Dr.
  2158.    Charles Elbaum (Brown University). Neural Network Models:
  2159.    Adaptive shape and pattern recognition (Restricted Coulomb
  2160.    Energy - RCE) developed by NESTOR is one of the most
  2161.    powerfull Neural Network Model used in a later products. The
  2162.    basis for NESTOR products is the Nestor Learning System -
  2163.    NLS. Later are developed: Character Learning System - CLS and
  2164.    Image Learning System - ILS. Nestor Development System -
  2165.    NDS is a development tool in Standard C - one of the most
  2166.    powerfull PC-Tools for simulation and development of Neural
  2167.    Networks. NLS is a multi-layer, feed forward system with low
  2168.    connectivity within each layer and no relaxation procedure used
  2169.    for determining an output response. This unique architecture
  2170.    allows the NLS to operate in real time without the need for
  2171.    special computers or custom hardware. NLS is composed of
  2172.    multiple neural networks, each specializing in a subset of
  2173.    information about the input patterns. The NLS integrates the
  2174.    responses of its several parallel networks to produce a system
  2175.    response that is far superior to that of other neural networks.
  2176.    Minimized connectivity within each layer results in rapid training
  2177.    and efficient memory utilization- ideal for current VLSI
  2178.    technology. Intel has made such a chip - NE1000. 
  2179.  
  2180.  9. NeuroShell2/NeuroWindows
  2181.  +++++++++++++++++++++++++++
  2182.  
  2183.    NeuroShell 2 combines powerful neural network architectures, a
  2184.    Windows icon driven user interface, and sophisticated utilities for
  2185.    MS-Windows machines. Internal format is spreadsheet, and users
  2186.    can specify that NeuroShell 2 use their own spreadsheet when
  2187.    editing. Includes both Beginner's and Advanced systems, a
  2188.    Runtime capability, and a choice of 15 Backpropagation,
  2189.    Kohonen, PNN and GRNN architectures. Includes Rules, Symbol
  2190.    Translate, Graphics, File Import/Export modules (including
  2191.    MetaStock from Equis International) and NET-PERFECT to
  2192.    prevent overtraining. Options available: Market Technical
  2193.    Indicator Option ($295), Market Technical Indicator Option with
  2194.    Optimizer ($590), and Race Handicapping Option ($149).
  2195.    NeuroShell price: $495.
  2196.  
  2197.    NeuroWindows is a programmer's tool in a Dynamic Link Library
  2198.    (DLL) that can create as many as 128 interactive nets in an
  2199.    application, each with 32 slabs in a single network, and 32K
  2200.    neurons in a slab. Includes Backpropagation, Kohonen, PNN, and
  2201.    GRNN paradigms. NeuroWindows can mix supervised and
  2202.    unsupervised nets. The DLL may be called from Visual Basic,
  2203.    Visual C, Access Basic, C, Pascal, and VBA/Excel 5.
  2204.    NeuroWindows price: $369.
  2205.  
  2206.    Contact: Ward Systems Group, Inc.; Executive Park West; 5
  2207.    Hillcrest Drive; Frederick, MD 21702; USA; Phone: 301
  2208.    662-7950; FAX: 301 662-5666. Contact us for a free demo
  2209.    diskette and Consumer's Guide to Neural Networks. 
  2210.  
  2211.  10. NuTank
  2212.  ++++++++++
  2213.  
  2214.    NuTank stands for NeuralTank. It is educational and
  2215.    entertainment software. In this program one is given the shell of a
  2216.    2 dimentional robotic tank. The tank has various I/O devices like
  2217.    wheels, whiskers, optical sensors, smell, fuel level, sound and such.
  2218.    These I/O sensors are connected to Neurons. The player/designer
  2219.    uses more Neurons to interconnect the I/O devices. One can have
  2220.    any level of complexity desired (memory limited) and do
  2221.    subsumptive designs. More complex design take slightly more fuel,
  2222.    so life is not free. All movement costs fuel too. One can also tag
  2223.    neuron connections as "adaptable" that adapt their weights in
  2224.    acordance with the target neuron. This allows neurons to learn.
  2225.    The Neuron editor can handle 3 dimention arrays of neurons as
  2226.    single entities with very flexible interconect patterns.
  2227.  
  2228.    One can then design a scenario with walls, rocks, lights, fat (fuel)
  2229.    sources (that can be smelled) and many other such things. Robot
  2230.    tanks are then introduced into the Scenario and allowed interact
  2231.    or battle it out. The last one alive wins, or maybe one just watches
  2232.    the motion of the robots for fun. While the scenario is running it
  2233.    can be stopped, edited, zoom'd, and can track on any robot.
  2234.  
  2235.    The entire program is mouse and graphicly based. It uses DOS
  2236.    and VGA and is written in TurboC++. There will also be the
  2237.    ability to download designs to another computer and source code
  2238.    will be available for the core neural simulator. This will allow one
  2239.    to design neural systems and download them to real robots. The
  2240.    design tools can handle three dimentional networks so will work
  2241.    with video camera inputs and such. Eventualy I expect to do a port
  2242.    to UNIX and multi thread the sign. I also expect to do a Mac port
  2243.    and maybe NT or OS/2
  2244.  
  2245.    Copies of NuTank cost $50 each. Contact: Richard Keene; Keene
  2246.    Educational Software; Dick.Keene@Central.Sun.COM
  2247.  
  2248.    NuTank shareware with the Save options disabled is available via
  2249.    anonymous ftp from the Internet, see the file 
  2250.    /pub/incoming/nutank.readme on the host cher.media.mit.edu. 
  2251.  
  2252.  11. Neuralyst
  2253.  +++++++++++++
  2254.  
  2255.    Name: Neuralyst Version 1.4; Company: Cheshire Engineering
  2256.    Corporation; Address: 650 Sierra Madre Villa, Suite 201,
  2257.    Pasedena CA 91107; Phone: 818-351-0209; Fax: 818-351-8645;
  2258.  
  2259.    Basic capabilities: training of backpropogation neural nets.
  2260.    Operating system: Windows or Macintosh running Microsoft
  2261.    Excel Spreadsheet. Neuralyst is an add-in package for Excel.
  2262.    Approx. price: $195 for windows or Mac. Comments: A simple
  2263.    model that is easy to use. Integrates nicely into Microsoft Excel.
  2264.    Allows user to create, train, and run backprop ANN models
  2265.    entirely within an Excel spreadsheet. Provides macro functions
  2266.    that can be called from Excel macro's, allowing you to build a
  2267.    custom Window's interface using Excel's macro language and
  2268.    Visual Basic tools. The new version 1.4 includes a genetic
  2269.    algorithm to guide the training process. A good bargain to boot.
  2270.    (Comments by Duane Highley, a user and NOT the program
  2271.    developer. dhighley@ozarks.sgcl.lib.mo.us) 
  2272.  
  2273. ------------------------------------------------------------------------
  2274.  
  2275. o A: Neural Network hardware?
  2276. o ===========================
  2277.  
  2278. [who will write some short comment on the most important
  2279. HW-packages and chips?]
  2280.  
  2281. The Number 1 of each volume of the journal "Neural Networks" has a
  2282. list of some dozens of suppliers of Neural Network support: Software,
  2283. Hardware, Support, Programming, Design and Service.
  2284.  
  2285. Here is a short list of companies: 
  2286.  
  2287.  1. HNC, INC.
  2288.  ++++++++++++
  2289.  
  2290.       5501 Oberlin Drive
  2291.       San Diego
  2292.       California 92121
  2293.       (619) 546-8877
  2294.          and a second address at
  2295.       7799 Leesburg Pike, Suite 900
  2296.       Falls Church, Virginia
  2297.       22043
  2298.       (703) 847-6808
  2299.          Note: Australian Dist.: Unitronics 
  2300.                                  Tel : (09) 4701443
  2301.                                  Contact: Martin Keye
  2302.       HNC markets:
  2303.        'Image Document Entry Processing Terminal' - it recognises
  2304.        handwritten documents and converts the info to ASCII.
  2305.        'ExploreNet 3000' - a NN demonstrator
  2306.        'Anza/DP Plus'- a Neural Net board with 25MFlop or 12.5M peak 
  2307.        interconnects per second.
  2308.  
  2309.  2. SAIC (Sience Application International Corporation)
  2310.  ++++++++++++++++++++++++++++++++++++++++++++++++++++++
  2311.  
  2312.       10260 Campus Point Drive
  2313.       MS 71, San Diego
  2314.       CA 92121
  2315.       (619) 546 6148
  2316.       Fax: (619) 546 6736
  2317.  
  2318.  3. Micro Devices
  2319.  ++++++++++++++++
  2320.  
  2321.       30 Skyline Drive
  2322.       Lake Mary
  2323.       FL 32746-6201
  2324.       (407) 333-4379
  2325.       MicroDevices makes   MD1220 - 'Neural Bit Slice'
  2326.       Each of the products mentioned sofar have very different usages.
  2327.       Although this sounds similar to Intel's product, the
  2328.       architectures are not.
  2329.  
  2330.  4. Intel Corp
  2331.  +++++++++++++
  2332.  
  2333.       2250 Mission College Blvd
  2334.       Santa Clara, Ca 95052-8125
  2335.       Attn ETANN, Mail Stop SC9-40
  2336.       (408) 765-9235
  2337.       Intel is making an experimental chip:
  2338.       80170NW - Electrically trainable Analog Neural Network (ETANN)
  2339.       It has 64 'neurons' on it - almost fully internally connectted
  2340.       and the chip can be put in an hierarchial architecture to do 2 Billion
  2341.       interconnects per second.
  2342.       Support software has already been made by
  2343.         California Scientific Software
  2344.         10141 Evening Star Dr #6
  2345.         Grass Valley, CA 95945-9051
  2346.         (916) 477-7481
  2347.       Their product is called 'BrainMaker'.
  2348.  
  2349.  5. NeuralWare, Inc
  2350.  ++++++++++++++++++
  2351.  
  2352.       Penn Center West
  2353.       Bldg IV Suite 227
  2354.       Pittsburgh
  2355.       PA 15276
  2356.       They only sell software/simulator but for many platforms.
  2357.  
  2358.  6. Tubb Research Limited
  2359.  ++++++++++++++++++++++++
  2360.  
  2361.       7a Lavant Street
  2362.       Peterfield
  2363.       Hampshire
  2364.       GU32 2EL
  2365.       United Kingdom
  2366.       Tel: +44 730 60256
  2367.  
  2368.  7. Adaptive Solutions Inc
  2369.  +++++++++++++++++++++++++
  2370.  
  2371.       1400 NW Compton Drive
  2372.       Suite 340
  2373.       Beaverton, OR 97006
  2374.       U. S. A.
  2375.       Tel: 503-690-1236;   FAX: 503-690-1249
  2376.  
  2377.  8. NeuroDynamX, Inc.
  2378.  ++++++++++++++++++++
  2379.  
  2380.       4730 Walnut St., Suite 101B
  2381.       Boulder, CO 80301
  2382.       Voice: (303) 442-3539   Fax: (303) 442-2854
  2383.       Internet: techsupport@ndx.com
  2384.       NDX sells a number neural network hardware products:
  2385.       NDX Neural Accelerators: a line of i860-based accelerator cards for
  2386.       the PC that give up to 45 million connections per second for use 
  2387.       with the DynaMind neural network software.
  2388.       iNNTS: Intel's 80170NX (ETANN) Neural Network Training System. NDX's president
  2389.       was one of the co-designers of this chip.
  2390.  
  2391.  9. IC Tech
  2392.  ++++++++++
  2393.  
  2394.    NEURO-COMPUTING IC's:
  2395.    *  DANN050L (dendro-dendritic artificial neural network)
  2396.       + 50 neurons fully connected at the input
  2397.       + on-chip digital learning capability
  2398.       + 6 billion connections/sec peak speed
  2399.       + learns 7 x 7 template in < 50 nsec., recalls in < 400 nsec.
  2400.       + low power < 100 milli Watts
  2401.       + 64-pin package
  2402.    *  NCA717D  (neuro correlator array)
  2403.       + analog template matching in < 500 nsec.
  2404.       + analog input / digital output pins for real-time computation 
  2405.       + vision applications in stereo and motion computation
  2406.       + 40-pin package 
  2407.    NEURO COMPUTING BOARD:
  2408.    *  ICT1050 
  2409.       + IBM PC compatible or higher
  2410.       + with on-board DANN050L
  2411.       + digital interface
  2412.       + custom configurations available
  2413.    Contact:
  2414.    IC Tech (Innovative Computing Technologies, Inc.)
  2415.    4138 Luff Court
  2416.    Okemos, MI 48864
  2417.    (517) 349-4544
  2418.    ictech@mcimail.com
  2419.  
  2420. And here is an incomplete overview over known Neural Computers with
  2421. their newest known reference.
  2422.  
  2423. \subsection*{Digital}
  2424. \subsubsection{Special Computers}
  2425.  
  2426. {\bf AAP-2}
  2427. Takumi Watanabe, Yoshi Sugiyama, Toshio Kondo, and Yoshihiro Kitamura.
  2428. Neural network simulation on a massively parallel cellular array
  2429. processor: AAP-2. 
  2430. In International Joint Conference on Neural Networks, 1989.
  2431.  
  2432. {\bf ANNA}
  2433. B.E.Boser, E.Sackinger, J.Bromley, Y.leChun, and L.D.Jackel.\\
  2434. Hardware Requirements for Neural Network Pattern Classifiers.\\
  2435. In {\it IEEE Micro}, 12(1), pages 32-40, February 1992.
  2436.  
  2437. {\bf Analog Neural Computer}
  2438. Paul Mueller et al. 
  2439. Design and performance of a prototype analog neural computer. 
  2440. In Neurocomputing, 4(6):311-323, 1992.
  2441.  
  2442. {\bf APx -- Array Processor Accelerator}\\
  2443. F.Pazienti.\\
  2444. Neural networks simulation with array processors. 
  2445. In {\it Advanced Computer Technology, Reliable Systems and Applications;
  2446. Proceedings of the 5th Annual Computer Conference}, pages 547-551. 
  2447. IEEE Comput. Soc. Press, May 1991. ISBN: 0-8186-2141-9.
  2448.  
  2449. {\bf ASP -- Associative String Processor}\\
  2450. A.Krikelis.\\
  2451. A novel massively associative processing architecture for the
  2452. implementation artificial neural networks.\\
  2453. In {\it 1991 International Conference on Acoustics, Speech and 
  2454. Signal Processing}, volume 2, pages 1057-1060. IEEE Comput. Soc. Press,
  2455. May 1991.
  2456.  
  2457. {\bf BSP400}
  2458. Jan N.H. Heemskerk, Jacob M.J. Murre, Jaap Hoekstra, Leon H.J.G.
  2459. Kemna, and Patrick T.W. Hudson. 
  2460. The bsp400: A modular neurocomputer assembled from 400 low-cost
  2461. microprocessors. 
  2462. In International Conference on Artificial Neural Networks. Elsevier
  2463. Science, 1991.
  2464.  
  2465. {\bf BLAST}\\
  2466. J.G.Elias, M.D.Fisher, and C.M.Monemi.\\
  2467. A multiprocessor machine for large-scale neural network simulation.
  2468. In {\it IJCNN91-Seattle: International Joint Conference on Neural
  2469. Networks}, volume 1, pages 469-474. IEEE Comput. Soc. Press, July 1991.
  2470. ISBN: 0-7883-0164-1.
  2471.  
  2472. {\bf CNAPS Neurocomputer}\\
  2473. H.McCartor\\
  2474. Back Propagation Implementation on the Adaptive Solutions CNAPS
  2475. Neurocomputer.\\
  2476. In {\it Advances in Neural Information Processing Systems}, 3, 1991.
  2477.  
  2478. {\bf GENES~IV and MANTRA~I}\\
  2479. Paolo Ienne and  Marc A. Viredaz\\
  2480. {GENES~IV}: A Bit-Serial Processing Element for a Multi-Model 
  2481.    Neural-Network Accelerator\\
  2482. Proceedings of the International Conference on Application Specific Array
  2483.    Processors, Venezia, 1993.
  2484.  
  2485. {\bf MA16 -- Neural Signal Processor}
  2486. U.Ramacher, J.Beichter, and N.Bruls.\\
  2487. Architecture of a general-purpose neural signal processor.\\
  2488. In {\it IJCNN91-Seattle: International Joint Conference on Neural
  2489. Networks}, volume 1, pages 443-446. IEEE Comput. Soc. Press, July 1991.
  2490. ISBN: 0-7083-0164-1.
  2491.  
  2492. {\bf MANTRA I}\\
  2493. Marc A. Viredaz\\
  2494. {MANTRA~I}: An {SIMD} Processor Array for Neural Computation
  2495. Proceedings of the Euro-ARCH'93 Conference, {M\"unchen}, 1993.
  2496.  
  2497. {\bf Mindshape}
  2498. Jan N.H. Heemskerk, Jacob M.J. Murre Arend Melissant, Mirko Pelgrom,
  2499. and Patrick T.W. Hudson. 
  2500. Mindshape: a neurocomputer concept based on a fractal architecture. 
  2501. In International Conference on Artificial Neural Networks. Elsevier
  2502. Science, 1992. 
  2503.  
  2504. {\bf mod 2}
  2505. Michael L. Mumford, David K. Andes, and Lynn R. Kern. 
  2506. The mod 2 neurocomputer system design. 
  2507. In IEEE Transactions on Neural Networks, 3(3):423-433, 1992.
  2508.  
  2509. {\bf NERV}\\
  2510. R.Hauser, H.Horner, R. Maenner, and M.Makhaniok.\\
  2511. Architectural Considerations for NERV - a General Purpose Neural
  2512. Network Simulation System.\\
  2513. In {\it Workshop on Parallel Processing: Logic, Organization and
  2514. Technology -- WOPPLOT 89}, pages 183-195. Springer Verlag, Mars 1989.
  2515. ISBN: 3-5405-5027-5.
  2516.  
  2517. {\bf NP -- Neural Processor}\\
  2518. D.A.Orrey, D.J.Myers, and J.M.Vincent.\\
  2519. A high performance digital processor for implementing large artificial
  2520. neural networks.\\
  2521. In {\it Proceedings of of the IEEE 1991 Custom Integrated Circuits
  2522. Conference}, pages 16.3/1-4. IEEE Comput. Soc. Press, May 1991. 
  2523. ISBN: 0-7883-0015-7.
  2524.  
  2525. {\bf RAP -- Ring Array Processor }\\
  2526. N.Morgan, J.Beck, P.Kohn, J.Bilmes, E.Allman, and J.Beer.\\
  2527. The ring array processor: A multiprocessing peripheral for connectionist
  2528. applications. \\
  2529. In {\it Journal of Parallel and Distributed Computing}, pages
  2530. 248-259, April 1992.
  2531.  
  2532. {\bf RENNS -- REconfigurable Neural Networks Server}\\
  2533. O.Landsverk, J.Greipsland, J.A.Mathisen, J.G.Solheim, and L.Utne.\\
  2534. RENNS - a Reconfigurable Computer System for Simulating Artificial
  2535. Neural Network Algorithms.\\
  2536. In {\it Parallel and Distributed Computing Systems, Proceedings of the
  2537. ISMM 5th International Conference}, pages 251-256. The International
  2538. Society for Mini and Microcomputers - ISMM, October 1992. 
  2539. ISBN: 1-8808-4302-1.
  2540.  
  2541. {\bf SMART -- Sparse Matrix Adaptive and Recursive Transforms}\\
  2542. P.Bessiere, A.Chams, A.Guerin, J.Herault, C.Jutten, and J.C.Lawson.\\
  2543. From Hardware to Software: Designing a ``Neurostation''.\\
  2544. In {\it VLSI design of Neural Networks}, pages 311-335, June 1990.
  2545.  
  2546. {\bf SNAP -- Scalable Neurocomputer Array Processor}
  2547. E.Wojciechowski.\\
  2548. SNAP: A parallel processor for implementing real time neural networks.\\
  2549. In {\it Proceedings of the IEEE 1991 National Aerospace and Electronics
  2550. Conference; NAECON-91}, volume 2, pages 736-742. IEEE Comput.Soc.Press,
  2551. May 1991.
  2552.  
  2553. {\bf Toroidal Neural Network Processor}\\
  2554. S.Jones, K.Sammut, C.Nielsen, and J.Staunstrup.\\
  2555. Toroidal Neural Network: Architecture and Processor Granularity
  2556. Issues.\\
  2557. In {\it VLSI design of Neural Networks}, pages 229-254, June 1990.
  2558.  
  2559. {\bf SMART and SuperNode}
  2560. P. Bessi`ere, A. Chams, and P. Chol. 
  2561. MENTAL : A virtual machine approach to artificial neural networks 
  2562. programming. In NERVES, ESPRIT B.R.A. project no 3049, 1991. 
  2563.  
  2564.  
  2565. \subsubsection{Standard Computers}
  2566.  
  2567. {\bf EMMA-2}\\
  2568. R.Battiti, L.M.Briano, R.Cecinati, A.M.Colla, and P.Guido.\\
  2569. An application oriented development environment for Neural Net models on
  2570. multiprocessor Emma-2.\\
  2571. In {\it Silicon Architectures for Neural Nets; Proceedings for the IFIP
  2572. WG.10.5 Workshop}, pages 31-43. North Holland, November 1991. 
  2573. ISBN: 0-4448-9113-7.
  2574.  
  2575. {\bf iPSC/860 Hypercube}\\
  2576. D.Jackson, and D.Hammerstrom\\
  2577. Distributing Back Propagation Networks Over the Intel iPSC/860
  2578. Hypercube}\\ 
  2579. In {\it IJCNN91-Seattle: International Joint Conference on Neural
  2580. Networks}, volume 1, pages 569-574. IEEE Comput. Soc. Press, July 1991.
  2581. ISBN: 0-7083-0164-1.
  2582.  
  2583. {\bf SCAP -- Systolic/Cellular Array Processor}\\
  2584. Wei-Ling L., V.K.Prasanna, and K.W.Przytula.\\
  2585. Algorithmic Mapping of Neural Network Models onto Parallel SIMD
  2586. Machines.\\
  2587. In {\it IEEE Transactions on Computers}, 40(12), pages 1390-1401,
  2588. December 1991. ISSN: 0018-9340.
  2589.  
  2590. ------------------------------------------------------------------------
  2591.  
  2592. o A: Databases for experimentation with NNs?
  2593. o ==========================================
  2594.  
  2595.  1. The neural-bench Benchmark collection
  2596.  ++++++++++++++++++++++++++++++++++++++++
  2597.  
  2598.    Accessible via anonymous FTP on ftp.cs.cmu.edu [128.2.206.173]
  2599.    in directory /afs/cs/project/connect/bench. In case of problems or if
  2600.    you want to donate data, email contact is
  2601.    "neural-bench@cs.cmu.edu". The data sets in this repository
  2602.    include the 'nettalk' data, 'two spirals', protein structure
  2603.    prediction, vowel recognition, sonar signal classification, and a few
  2604.    others. 
  2605.  
  2606.  2. Proben1
  2607.  ++++++++++
  2608.  
  2609.    Proben1 is a collection of 12 learning problems consisting of real
  2610.    data. The datafiles all share a single simple common format.
  2611.    Along with the data comes a technical report describing a set of
  2612.    rules and conventions for performing and reporting benchmark
  2613.    tests and their results. Accessible via anonymous FTP on
  2614.    ftp.cs.cmu.edu [128.2.206.173] as 
  2615.    /afs/cs/project/connect/bench/contrib/prechelt/proben1.tar.gz. and
  2616.    also on ftp.ira.uka.de [129.13.10.90] as /pub/neuron/proben.tar.gz.
  2617.    The file is about 1.8 MB and unpacks into about 20 MB. 
  2618.  
  2619.  3. UCI machine learning database
  2620.  ++++++++++++++++++++++++++++++++
  2621.  
  2622.    Accessible via anonymous FTP on ics.uci.edu [128.195.1.1] in
  2623.    directory /pub/machine-learning-databases". 
  2624.  
  2625.  4. NIST special databases of the National Institute Of Standards
  2626.  ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  2627.    And Technology:
  2628.    +++++++++++++++
  2629.  
  2630.    Several large databases, each delivered on a CD-ROM. Here is a
  2631.    quick list. 
  2632.     o NIST Binary Images of Printed Digits, Alphas, and Text 
  2633.     o NIST Structured Forms Reference Set of Binary Images 
  2634.     o NIST Binary Images of Handwritten Segmented
  2635.       Characters 
  2636.     o NIST 8-bit Gray Scale Images of Fingerprint Image
  2637.       Groups 
  2638.     o NIST Structured Forms Reference Set 2 of Binary Images 
  2639.     o NIST Test Data 1: Binary Images of Hand-Printed
  2640.       Segmented Characters 
  2641.     o NIST Machine-Print Database of Gray Scale and Binary
  2642.       Images 
  2643.     o NIST 8-Bit Gray Scale Images of Mated Fingerprint Card
  2644.       Pairs 
  2645.     o NIST Supplemental Fingerprint Card Data (SFCD) for
  2646.       NIST Special Database 9 
  2647.     o NIST Binary Image Databases of Census Miniforms
  2648.       (MFDB) 
  2649.     o NIST Mated Fingerprint Card Pairs 2 (MFCP 2) 
  2650.     o NIST Scoring Package Release 1.0 
  2651.     o NIST FORM-BASED HANDPRINT RECOGNITION
  2652.       SYSTEM 
  2653.    Here are example descriptions of two of these databases: 
  2654.  
  2655.    NIST special database 2: Structured Forms Reference Set
  2656.    -------------------------------------------------------
  2657.    (SFRS)
  2658.    ------
  2659.  
  2660.    The NIST database of structured forms contains 5,590 full page
  2661.    images of simulated tax forms completed using machine print.
  2662.    THERE IS NO REAL TAX DATA IN THIS DATABASE. The
  2663.    structured forms used in this database are 12 different forms from
  2664.    the 1988, IRS 1040 Package X. These include Forms 1040, 2106,
  2665.    2441, 4562, and 6251 together with Schedules A, B, C, D, E, F and
  2666.    SE. Eight of these forms contain two pages or form faces making
  2667.    a total of 20 form faces represented in the database. Each image is
  2668.    stored in bi-level black and white raster format. The images in
  2669.    this database appear to be real forms prepared by individuals but
  2670.    the images have been automatically derived and synthesized using
  2671.    a computer and contain no "real" tax data. The entry field values
  2672.    on the forms have been automatically generated by a computer in
  2673.    order to make the data available without the danger of distributing
  2674.    privileged tax information. In addition to the images the database
  2675.    includes 5,590 answer files, one for each image. Each answer file
  2676.    contains an ASCII representation of the data found in the entry
  2677.    fields on the corresponding image. Image format documentation
  2678.    and example software are also provided. The uncompressed
  2679.    database totals approximately 5.9 gigabytes of data. 
  2680.  
  2681.    NIST special database 3: Binary Images of Handwritten
  2682.    -----------------------------------------------------
  2683.    Segmented Characters (HWSC)
  2684.    ---------------------------
  2685.  
  2686.    Contains 313,389 isolated character images segmented from the
  2687.    2,100 full-page images distributed with "NIST Special Database
  2688.    1". 223,125 digits, 44,951 upper-case, and 45,313 lower-case
  2689.    character images. Each character image has been centered in a
  2690.    separate 128 by 128 pixel region, error rate of the segmentation
  2691.    and assigned classification is less than 0.1%. The uncompressed
  2692.    database totals approximately 2.75 gigabytes of image data and
  2693.    includes image format documentation and example software.
  2694.  
  2695.    The system requirements for all databases are a 5.25" CD-ROM
  2696.    drive with software to read ISO-9660 format. Contact: Darrin L.
  2697.    Dimmick; dld@magi.ncsl.nist.gov; (301)975-4147
  2698.  
  2699.    The prices of the databases are between US$ 250 and 1895 If you
  2700.    wish to order a database, please contact: Standard Reference
  2701.    Data; National Institute of Standards and Technology; 221/A323;
  2702.    Gaithersburg, MD 20899; Phone: (301)975-2208; FAX:
  2703.    (301)926-0416
  2704.  
  2705.    Samples of the data can be found by ftp on sequoyah.ncsl.nist.gov
  2706.    in directory /pub/data A more complete description of the available
  2707.    databases can be obtained from the same host as 
  2708.    /pub/databases/catalog.txt 
  2709.  
  2710.  5. CEDAR CD-ROM 1: Database of Handwritten Cities, States,
  2711.  ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  2712.    ZIP Codes, Digits, and Alphabetic Characters
  2713.    ++++++++++++++++++++++++++++++++++++++++++++
  2714.  
  2715.    The Center Of Excellence for Document Analysis and
  2716.    Recognition (CEDAR) State University of New York at Buffalo
  2717.    announces the availability of CEDAR CDROM 1: USPS Office of
  2718.    Advanced Technology The database contains handwritten words
  2719.    and ZIP Codes in high resolution grayscale (300 ppi 8-bit) as well
  2720.    as binary handwritten digits and alphabetic characters (300 ppi
  2721.    1-bit). This database is intended to encourage research in off-line
  2722.    handwriting recognition by providing access to handwriting
  2723.    samples digitized from envelopes in a working post office. 
  2724.  
  2725.         Specifications of the database include:
  2726.         +    300 ppi 8-bit grayscale handwritten words (cities,
  2727.              states, ZIP Codes)
  2728.              o    5632 city words
  2729.              o    4938 state words
  2730.              o    9454 ZIP Codes
  2731.         +    300 ppi binary handwritten characters and digits:
  2732.              o    27,837 mixed alphas  and  numerics  segmented
  2733.                   from address blocks
  2734.              o    21,179 digits segmented from ZIP Codes
  2735.         +    every image supplied with  a  manually  determined
  2736.              truth value
  2737.         +    extracted from live mail in a  working  U.S.  Post
  2738.              Office
  2739.         +    word images in the test  set  supplied  with  dic-
  2740.              tionaries  of  postal  words that simulate partial
  2741.              recognition of the corresponding ZIP Code.
  2742.         +    digit images included in test  set  that  simulate
  2743.              automatic ZIP Code segmentation.  Results on these
  2744.              data can be projected to overall ZIP Code recogni-
  2745.              tion performance.
  2746.         +    image format documentation and software included
  2747.  
  2748.    System requirements are a 5.25" CD-ROM drive with software to
  2749.    read ISO-9660 format. For any further information, including
  2750.    how to order the database, please contact: Jonathan J. Hull,
  2751.    Associate Director, CEDAR, 226 Bell Hall State University of
  2752.    New York at Buffalo, Buffalo, NY 14260; hull@cs.buffalo.edu
  2753.    (email) 
  2754.  
  2755.  6. AI-CD-ROM (see under answer 13)
  2756.  ++++++++++++++++++++++++++++++++++
  2757.  
  2758.  7. Time series archive
  2759.  ++++++++++++++++++++++
  2760.  
  2761.    Various datasets of time series (to be used for prediction learning
  2762.    problems) are available for anonymous ftp from ftp.santafe.edu
  2763.    [192.12.12.1] in /pub/Time-Series". Problems are for example:
  2764.    fluctuations in a far-infrared laser; Physiological data of patients
  2765.    with sleep apnea; High frequency currency exchange rate data;
  2766.    Intensity of a white dwarf star; J.S. Bachs final (unfinished) fugue
  2767.    from "Die Kunst der Fuge"
  2768.  
  2769.    Some of the datasets were used in a prediction contest and are
  2770.    described in detail in the book "Time series prediction: Forecasting
  2771.    the future and understanding the past", edited by
  2772.    Weigend/Gershenfield, Proceedings Volume XV in the Santa Fe
  2773.    Institute Studies in the Sciences of Complexity series of Addison
  2774.    Wesley (1994). 
  2775.  
  2776. ------------------------------------------------------------------------
  2777.  
  2778. That's all folks.
  2779.  
  2780. Acknowledgements: Thanks to all the people who helped to get the stuff
  2781.                   above into the posting. I cannot name them all, because
  2782.                   I would make far too many errors then. :->
  2783.  
  2784.                   No?  Not good?  You want individual credit?
  2785.                   OK, OK. I'll try to name them all. But: no guarantee....
  2786.  
  2787.   THANKS FOR HELP TO:
  2788. (in alphabetical order of email adresses, I hope)
  2789.  
  2790.  o Gamze Erten <ictech@mcimail.com> 
  2791.  o Steve Ward <71561.2370@CompuServe.COM> 
  2792.  o Mohammad Bahrami <bahrami@cse.unsw.edu.au> 
  2793.  o Allen Bonde <ab04@harvey.gte.com> 
  2794.  o Accel Infotech Spore Pte Ltd <accel@solomon.technet.sg> 
  2795.  o Alexander Linden <al@jargon.gmd.de> 
  2796.  o S.Taimi Ames <ames@reed.edu> 
  2797.  o Axel Mulder <amulder@move.kines.sfu.ca> 
  2798.  o anderson@atc.boeing.com 
  2799.  o Andy Gillanders <andy@grace.demon.co.uk> 
  2800.  o Davide Anguita <anguita@ICSI.Berkeley.EDU> 
  2801.  o Avraam Pouliakis <apou@leon.nrcps.ariadne-t.gr> 
  2802.  o Kim L. Blackwell <avrama@helix.nih.gov> 
  2803.  o Paul Bakker <bakker@cs.uq.oz.au> 
  2804.  o Stefan Bergdoll <bergdoll@zxd.basf-ag.de> 
  2805.  o Jamshed Bharucha <bharucha@casbs.Stanford.EDU> 
  2806.  o Yijun Cai <caiy@mercury.cs.uregina.ca> 
  2807.  o L. Leon Campbell <campbell@brahms.udel.edu> 
  2808.  o Craig Watson <craig@magi.ncsl.nist.gov> 
  2809.  o Yaron Danon <danony@goya.its.rpi.edu> 
  2810.  o David Ewing <dave@ndx.com> 
  2811.  o David DeMers <demers@cs.ucsd.edu> 
  2812.  o Denni Rognvaldsson <denni@thep.lu.se> 
  2813.  o Duane Highley <dhighley@ozarks.sgcl.lib.mo.us> 
  2814.  o Dick.Keene@Central.Sun.COM 
  2815.  o Donald Tveter <drt@mcs.com> 
  2816.  o Frank Schnorrenberg <fs0997@easttexas.tamu.edu> 
  2817.  o Gary Lawrence Murphy <garym@maya.isis.org> 
  2818.  o gaudiano@park.bu.edu 
  2819.  o Lee Giles <giles@research.nj.nec.com> 
  2820.  o Glen Clark <opto!glen@gatech.edu> 
  2821.  o Phil Goodman <goodman@unr.edu> 
  2822.  o guy@minster.york.ac.uk 
  2823.  o Joerg Heitkoetter <heitkoet@lusty.informatik.uni-dortmund.de> 
  2824.  o Ralf Hohenstein <hohenst@math.uni-muenster.de> 
  2825.  o Ed Rosenfeld <IER@aol.com> 
  2826.  o Jean-Denis Muller <jdmuller@vnet.ibm.com> 
  2827.  o Jeff Harpster <uu0979!jeff@uu9.psi.com> 
  2828.  o Jonathan Kamens <jik@MIT.Edu> 
  2829.  o J.J. Merelo <jmerelo@kal-el.ugr.es> 
  2830.  o Jon Gunnar Solheim <jon@kongle.idt.unit.no> 
  2831.  o Josef Nelissen <jonas@beor.informatik.rwth-aachen.de> 
  2832.  o Joey Rogers <jrogers@buster.eng.ua.edu> 
  2833.  o Ken Karnofsky <karnofsky@mathworks.com> 
  2834.  o Kjetil.Noervaag@idt.unit.no 
  2835.  o Luke Koops <koops@gaul.csd.uwo.ca> 
  2836.  o William Mackeown <mackeown@compsci.bristol.ac.uk> 
  2837.  o Mark Plumbley <mark@dcs.kcl.ac.uk> 
  2838.  o Peter Marvit <marvit@cattell.psych.upenn.edu> 
  2839.  o masud@worldbank.org 
  2840.  o Yoshiro Miyata <miyata@sccs.chukyo-u.ac.jp> 
  2841.  o Madhav Moganti <mmogati@cs.umr.edu> 
  2842.  o Jyrki Alakuijala <more@ee.oulu.fi> 
  2843.  o mrs@kithrup.com 
  2844.  o Maciek Sitnik <msitnik@plearn.edu.pl> 
  2845.  o R. Steven Rainwater <ncc@ncc.jvnc.net> 
  2846.  o Paolo Ienne <Paolo.Ienne@di.epfl.ch> 
  2847.  o Paul Keller <pe_keller@ccmail.pnl.gov> 
  2848.  o Michael Plonski <plonski@aero.org> 
  2849.  o Lutz Prechelt <prechelt@ira.uka.de> [creator of FAQ] 
  2850.  o Richard Andrew Miles Outerbridge <ramo@uvphys.phys.uvic.ca>
  2851.  o Richard Cornelius <richc@rsf.atd.ucar.edu> 
  2852.  o Rob Cunningham <rkc@xn.ll.mit.edu> 
  2853.  o Robert.Kocjancic@IJS.si 
  2854.  o Osamu Saito <saito@nttica.ntt.jp> 
  2855.  o Sheryl Cormicle <sherylc@umich.edu> 
  2856.  o Ted Stockwell <ted@aps1.spa.umn.edu> 
  2857.  o Thomas G. Dietterich <tgd@research.cs.orst.edu> 
  2858.  o Thomas.Vogel@cl.cam.ac.uk 
  2859.  o Ulrich Wendl <uli@unido.informatik.uni-dortmund.de> 
  2860.  o M. Verleysen <verleysen@dice.ucl.ac.be> 
  2861.  o Sherif Hashem <vg197@neutrino.pnl.gov> 
  2862.  o Matthew P Wiener <weemba@sagi.wistar.upenn.edu> 
  2863.  o Wesley Elsberry <welsberr@orca.tamu.edu> 
  2864.  
  2865. Bye
  2866.  
  2867.   Lutz
  2868.  
  2869. Neural network FAQ / Lutz Prechelt, prechelt@ira.uka.de
  2870. -- 
  2871. Lutz Prechelt   (email: prechelt@ira.uka.de)            | Whenever you 
  2872. Institut fuer Programmstrukturen und Datenorganisation  | complicate things,
  2873. Universitaet Karlsruhe;  76128 Karlsruhe;  Germany      | they get
  2874. (Voice: ++49/721/608-4068, FAX: ++49/721/694092)        | less simple.
  2875.  
  2876.